http://shoppinghub.co.kr/goods/goods_view.php?goodsNo=1000129709
- 제조사: 하연
- 규격: 282쪽 (A4)
- ISBN: 979-11-85497-14-3 93550
공인인증서가 없어도 법인 및 연구비 (신용)카드로 결제가 가능합니다.
문의: shoppinghub@techforum.co.kr 전화: 070-7169-5396 www.shoppinghub.co.kr
제1장 감성 인공지능 시스템(Emotion AI System) 기반 감성컴퓨팅(Affective Computing) 기술 1. 감성 인공지능 시스템(Emotion AI System)과 감성컴퓨팅(Affective Computing) 기술 개요 1-1. 인공지능과 감성 인공지능 시스템(Emotion AI System) 기술 개요 1-1-1. 인공지능(Artificial Intelligence, AI)의 현재와 미래 가. 인공지능의 역사 나. 딥러닝(Deep Learnging)과 강화학습(Reinforcement Learning)의 진화 나-1. 딥러닝(Deep Learnging) 나-2. 강화학습(Reinforcement Learning)의 진화 다. 인공지능의 추론 학습 능력, 관계형 네트워크(Relation Networks, RNs) 1-1-2. 인공지능의 기술 발전 가. 시각 분야의 이미지·얼굴 인식 나. 언어 인식 및 이해의 음성 인식 1-1-3. 감성 인공지능 시스템(Emotion AI System) 기술 개념 가. 감성ICT 기술 개요 나. 감성 인공지능 시스템(Emotion AI System) 기술 개념 다. 감정 로봇 시대 2. 감성컴퓨팅(Affective Computing) 기술 개요 2-1. 감성컴퓨팅(Affective Computing) 기술 개요 2-1-1. 인공지능(Artifiaial Intelligence)과 인공감정(Artifiaial Emotion) 가. 뇌지도 가-1. 뇌과학 가-2. 뇌인지 나. 뇌지도와 인공지능 다. 인공감정(Artifiaial Emotion) 다-1. 감정(Emotion) 다-2. 감정분석 다-3. 감정인식 기술(Emotion Recognition Technology) 다-4. 인공감정(Artifiaial Emotion)의 개요 다-5. 인공감정(Artifiaial Emotion) 모델의 구현 다-6. 인공감정(Artifiaial Emotion) 기술 2-1-2. 감성컴퓨팅(Affective Computing) 개념 가. 감성컴퓨팅(Affective Computing)의 개요 나. 감성컴퓨팅(Affective Computing) 정의 99 다. 감성인식(Emotion Recognition) 방법 및 표현 2-1-3. 감정인식(Emotion Recognition) 응용 분야 가. 감정인식(Emotion Recognition) 분석기술 개요 나. 감정인식(Emotion Recognition) 응용 분야 2-2. 감성컴퓨팅(Affective Computing) 요소 기술 개요 2-2-1. 음성 인식 소프트웨어 2-2-2. 제스처 인식 소프트웨어 2-2-3. 표정 인식 소프트웨어 2-2-4. 딥러닝(Deep Learning) 기반 감정인식(Emotion Recognition) 제2장 감성 인공지능 시스템(Emotion AI System)과 감성컴퓨팅(Affective Computing) 기술 동향 1. 감성 인공지능 시스템(Emotion AI System) 기술 동향 1-1. 감성 인공지능 시스템(Emotion AI System) 기술 개요 1-2. 감성 인식 기술 동향 1-2-1. 얼굴 및 표정 인식 기술 1-2-2. 음성 기반 감성인식 기술 1-2-3. 생체인식정보 기반 감성 인식 기술 가. 뇌파(Electroencephalography, EEG) 기반 감정인식 기술 나. 맥파(Photoplethysmogram, PPG) 기반 감정인식 기술 다. 심전도(Electrocardiogram, ECG) 기반 감정인식 기술 1-3. 감성 추론 및 표현 기술 2. 감성형 인공지능(Affective Intelligence) 시스템 개요 및 기술 동향 2-1. 감성형 컴퓨팅(Affective Computing)과 감성 로봇의 기술 개요 2-2. 감성형 로봇 기술동향 2-2-1. 감성 로봇 기술 개요 2-2-2. 감성 로봇 사례 가. 휴머노이드 로봇 ① 나오(NAO) ② 루모(Loomo) ③ 버디(Buddy) ④ 비욘드버벌(Beyond Verval) ⑤ 소피아(Sophia) ⑥ 아시모(ASIMO) ⑦ 어펙티바(Affectiva) ⑧ 지보(Jibo) ⑨ 젠보(Zenbo) ⑩ 코비안(KOBIAN) ⑪ 코즈모(Cozmo) ⑫ 쿠리(Kuri) ⑬ 키커(Keecker) ⑭ 페퍼(Pepper) ⑮ 헥사(Hexa) 나. 반려(Companion) 로봇 ① 아이보(AIBO) ② 코비(KOBIE) ③ 파로(PARO) ④ 파이보(piBo) 2-3. 감성컴퓨팅(affective computing) 관련 기술 개발 동향 2-3-1. 구글 브레인 프로젝트(Google Brain Project) 2-3-2. 레노버(Lenovo) ‘에어클라스(AirClass)’ 2-3-3. IBM, 딥러닝 기반 감성 시스템(Deep learning-based emotional system) ① 트루노스(TrueNorth) 칩 ② NS16e 컴퓨터 ③ 뉴로시냅틱 칩(Neuromorphic Chip) 기술 2-3-4. 마이크로소프트의 ‘바이브’ 221 2-3-5. 어펙티바(Affectiva)의 ‘어프덱스(Affdex)’ 2-3-5. 인텔의 ‘리얼센스(RealSense)’ 2-3-6. 페이스북의 ‘딥페이스(DeepFace)’ 2-3-7. 애플(Apple)의 3D ‘애니모지(ANIMOJI)’ ① 애플 이모션트(Emotient) ② 페이스 ID(Face ID) ③ 애니모지(Animoji) 3. 감성컴퓨팅 시장 동향 3-1. 시사점 3-2. 시장 전망 부록 뉴로모픽 칩과 뉴로모픽 컴퓨팅 1. 뉴로모픽 칩과 뉴로모픽 컴퓨팅 1-1. 뉴로모픽(Neuromorphic)의 개념과 특징 1-1-1. 뉴로모픽의 개념 1-1-2. 뉴로모픽 기술의 등장 배경 1-1-3. 뉴로모픽 칩(neuromorphic chip)의 구조 1-1-4. 뉴로모픽 기술 특징 1-1-5. 뉴로모픽과 딥러닝 1-2. 뉴로모픽 컴퓨팅(Neuromorphic Computing)의 기술 동향 1-2-1. 뉴로모픽 컴퓨팅 기술의 개요 1-2-2. 뉴로모픽 컴퓨팅(Neuromorphic Computing) 기술의 특징 가. 뉴로시냅틱 칩(Neuromorphic Chip) 기술 나. 교차 모달리티 기술 다. 지식 확장형 인지기술 1-3. 뉴로모픽 기술의 국내외 추진 현황 참고 문헌 그림 목차 [그림 1] 인공지능 기술의 개요도 [그림 2] 인공지능 발전분야 [그림 3] 인공지능과 신경망 발달사 [그림 4] 슈퍼비전팀의 연구 내용 [그림 5] 이미지넷에서 딥러닝을 이용해 우승한 팀의 정확도 및 층수 [그림 6] 기계학습 절차 [그림 7] 딥러닝 기술 [그림 8] 환경과 상호작용을 통한 강화학습 구조 [그림 9] 강화학습 프레임워크(Reinforcement Learning Framework) [그림 10] 로봇에 적용된 DQN [그림 11] q-learning [그림 12] 관계형 질문 [그림 13] 객체 유형(위)과 위치 지정 체계(좌우) [그림 14] CNN을 이용한 관계 추론 [그림 15] 인공지능 시장 전망 [그림 16] 표정을 만드는 사람의 얼굴근육 [그림 17] 인간의 인지과정 [그림 18] 뇌의 시각정보처리 과정과 딥러닝 이미지 인식 [그림 19] 시각 정보를 프로세싱하는 과정의 예 [그림 20] 얼굴 인식 아키텍처 [그림 21] 안면인식 과정 및 얼굴 인식 솔루션 [그림 22] 언어 기술(Language technologies)의 진화 [그림 23] 시퀀스-시퀀스 ASR 아키텍처 [그림 24] 감성의 영역 [그림 25] 감성 정보 인식하는 기술 [그림 26] Verbal Emotion Recognition Engine(ST) [그림 27] 감정시스템 [그림 28] 소셜 로봇 종류 [그림 29] 메로(MERO-S) [그림 30] 마이크로소프트(MS)의 감정인식 [그림 31] 코르비니안 브로드만의 뇌지도 [그림 32] 두정엽의 기능 [그림 33] 인공마음 모델 [그림 34] 뇌-뇌 접속 기기 개념 [그림 35] 2016년 발표된 뇌 기능의 구획 지도 [그림 36] 감성인공지능의 발전 [그림 37] 감정 모델 [그림 38] 개인의 감성에 영향을 미치는 요인 [그림 39] 인간 감정상태 분류 [그림 40] 감정의 지도 [그림 41] 인간 정보 처리시스템의 일반적인 흐름도 [그림 42] Artificial Feelings and Emotions(AIFE)를 만드는 과정 [그림 43] 3D 감성 벡터 공간상의 감성영역 [그림 44] 분석 과정 [그림 45] 감정인식 시스템 [그림 46] 오감 센서의 진화 양상 [그림 47] 와세다 대학에서 개발한 감정을 표현하는 로봇 코비 [그림 48] 아이언맨의 개인 비서 자비스 [그림 49] 인공 감정 시스템 [그림 50] 감정 생성 모델 [그림 51] 가상 두뇌에서의 1·2차 감정을 이용한 감성컴퓨팅 [그림 52] 감성컴퓨팅의 다이어그램 [그림 53] 인터페이스의 발전 [그림 54] 폴 에크만과 인류 공통의 표정 [그림 55] 생체 신호를 통해서 감정을 인식하는 센스 글래스 [그림 56] HRI를 위한 감정인식(Speech emotion recognition for human-robot interaction) [그림 57] 얼굴 표정에 대한 이해와 사용 [그림 58] 이미지 생성 프로세스 [그림 59] 에펙티바의 상황별 감정 분류 [그림 60] 감성컴퓨팅을 위한 멀티모달 인식 [그림 61] 비욘드 버벌(Beyond Verbal)의 음성 인식 소프트웨어 [그림 62] 멀티모달 음성 인식 과정 [그림 63] 사용자의 표정, 동작 등을 인식하는 리얼센스(RealSense) SDK [그림 64] 표정 인식을 위한 시스템 구조 [그림 65] 광고분석에 사용된 어프덱스(Affdex) 기술 [그림 66] 학습(Training), 등록(Enrollment), 인식(Recognition) 과정 [그림 67] 신경망 기반 감정인식 126 [그림 68] 감성 인공지능 시스템(Emotion AI System) 기술 131 [그림 69] 얼굴 인식 기능 원리 [그림 70] 실시간 동영상 분석 시스템 동작 과정 [그림 71] 얼굴 인식 시장 규모 [그림 72] Eulerian Videos Magnification [그림 73] 얼굴 인식 지원 스마트폰 출하량 [그림 74] 음성파형(신호)과 고유한정보 [그림 75] 발화기반 음성특징 추출 [그림 76] 음성 기반 감정인식 기술 [그림 77] 생체인식 기술의 유형 [그림 78] 생체신호 기반 인증 단계 [그림 79] EEG 데이터 기반 감정인식 과정 [그림 80] Brain Waves [그림 81] 생체 신호 인식 [그림 82] Architecture of Emotion Detection and Recognition System(EDRS) [그림 83] ECG 신호의 신호 처리 및 감정 식별 단계 [그림 84] PPG/ECG 감성인식 시스템 [그림 85] OCC 모델의 규칙 [그림 86] 로봇과 사용자간 대화를 위한 지능 소프트웨어 구성도 [그림 87] 소셜 로봇의 하드웨어 구조 [그림 88] 로봇에 대한 사람들의 감정변화 [그림 89] AI모듈 융합 [그림 90] 나오(NAO) [그림 91] 루모(Loomo)의 세부 명칭 [그림 92]비욘드 버벌 음성 분석 기술 개요 [그림 93] 비욘드 버벌팀의 음성 인식 프로그램 [그림 94] 인공지능 로봇 소피아(Sophia) [그림 95] 소피아에 적용된 기술 [그림 96] 아시모(ASIMO) [그림 97] Affectiva를 이용한 모나리자 감정 분석 [그림 98] 지보(Jibo)의 특징 [그림 99] 젠보의 특징 [그림 100] 와세다 대학에서 개발한 코비안 [그림 101] 코즈모(Cozmo)의 핵심 하드웨어 기능 [그림 102] 키커 모바일 앱 [그림103] 나오치의 개발환경 [그림 104] 페퍼(Pepper) 제공 서비스 [그림 105] 빈크로스(Vincross)의 헥사(Hexa) 로봇 [그림 106] 아이보(AIBO) 194 [그림 107] 파이보(pibo, Personal Intelligent roBOt) [그림 108] 감성컴퓨팅을 이용한 자폐증 치료 시스템 프레임 워크 [그림 109] 감성분석 시스템 [그림 110] HCI & affective computing [그림 111] 손으로 쓴 문자 인식 방법 [그림 112] Inception Module, naive version [그림 113] 새로운 기계학습 알고리즘과 접근 [그림 114] 신경오디오합성(NSynth) 기술 [그림 115] 레노버(Lenovo) 에어클라스(AirClass) [그림 116] Tone Analyzer [그림 117] 인지컴퓨터 작동방식 [그림 118] IBM의 뉴로시냅틱 코어 [그림 119] IBM에서 개발한 뉴로시냅틱 칩 TrueNorth의 구조 [그림 120] TrueNorth data set samples [그림 121] Neuromorphic Architecture [그림 122] 신경 네트워크의 최적화된 CPU 데이터 경로 [그림 123] Face API [그림 124] 어프덱스(Affdex) 얼굴 코딩 [그림 125] 인텔 리얼센스 기술의 개요 [그림 126] 인텔 리얼센스 카메라 기술이 구현되는 과정 [그림 127] 감정인식을 위한 신경망 [그림 128] 페이스북의 딥페이스(DeepFace) [그림 129] 애플(Apple)의 AI 관련 주요 M&A [그림 130] 트루뎁스 카메라 분석과 도트를 얼굴에 투사해 사용자의 얼굴 맵을 만드는 트루뎁스 카메라 시스템 [그림 131] 이모션트(Emotient) 감정인식 [그림 132] 애플 아이폰X 페이스ID [그림 133] 애니모지(Animoji) 구현 [그림 134] 세계 로봇시장 규모 243 [그림 135] 전문서비스 로봇시장 전망('16'19년, 판매액 기준) [그림 136] 개인서비스 로봇시장 전망('16'19년, 판매액 기준) [그림 137] 세계 산업용 로봇시장 전망('17~'19) [그림 138] 시냅스(SyNAPSE)에서 정보가 전달되는 과정 [그림 139] 뉴로모픽 칩의 개요 [그림 140] 폰 노이만 컴퓨팅 기술과 인간 뇌의 전력 효율성 비교 [그림 141] 인공 시냅스 [그림 142] SyNAPSE Architectural Concept [그림 143] IBM의 뉴로모픽 칩 [그림 144] 뉴로모픽 칩의 응용 [그림 145] 신경망과 하드웨어 [그림 146] 뉴로모픽 컴퓨팅을 위한 컨볼루션 네트워크 [그림 147] 신경회로망의 구조와 기능을 수리적으로 모사하는 뉴로모픽 인공두뇌 모델링 방법 [그림 148] 뉴로모픽 칩 작동 방법 [그림 149] 뉴로모픽 컴퓨팅 아키텍처 [그림 150] Neuromorphic Architecture [그림 151] 신경 네트워크의 최적화된 CPU 데이터 경로 표 목차 [표 1] 인공지능의 역사 [표 2] 인공지능(AI) 기술의 진화 [표 3] 주요 안면인식 알고리즘의 특징 [표 4] 뇌인지 융합기술의 주요 연구분야 [표 5] 주요 선진국 뇌연구 프로젝트 [표 6] 감성인식 기술트리 및 기술개발 사례 [표 7] 감성형 로봇의 기술분야 [표 8] 음성 인식 기술 비교 [표 9] 감성컴퓨팅의 발전 양상 [표 10] 안면인식 과정 [표 11] BUDDY 서비스 및 구성 [표 12] 감성 로봇 파로(PARO)의 특징 [표 13] 마이크로 소프트의 인공지능 [표 14] 제품분류 관점의 기술 범위 [표 15] 폰 노이만 구조와 뉴로모픽 칩 처리 능력 비교 [표 16] 뉴로모픽 컴퓨터 역사 [표 17] 해외 뉴로모픽 칩 관련 주요 연구 결과 |
'신간 기술보고서 ' 카테고리의 다른 글
스마트 조선・해운 4.0 실태분석과 해양에너지/해양자원 R&D전략 (0) | 2018.08.03 |
---|---|
ICT 융합기술로 구현하는 스마트팜, 식물공장 시장 실태와 전망 (0) | 2018.08.03 |
2018 일본 가상/증강/혼합현실(VR/AR/MR) 기술개발 전략과 시장전망 (0) | 2018.08.01 |
2018 일본 드론(무인기) 기술개발 전략과 시장전망 (0) | 2018.08.01 |
물류의 디지털 트랜스포메이션인, 무인배송과 스마트물류 개발동향 및 향후 시장전망 (0) | 2018.08.01 |
댓글