과학(Science)/산업 (Industry)

대화형 플랫폼(Interactive Platform)

SURPRISER - Tistory 2023. 9. 7. 21:41

0. 목차

  1. '대화형 플랫폼'이란?
  2. '대화형 플랫폼' 산업
  3. '대화형 플랫폼' 핵심 기술
  4. '대화형 플랫폼'에서의 다양한 서비스
  5. '대화형 플랫폼' 발전을 위한 해결 과제
  6. '대화형 플랫폼' 생태계 구축과 선점을 위한 전략
  7. '대화형 플랫폼' 관련 기업

1. '대화형 플랫폼'이란?

 '대화형 플랫폼(Interactive Platform)'이란 '자연어 처리(Natural Language Processing)' 기술을 이용하여, 인간의 언어를 인식하고 인간과 컴퓨터가 상호작용할 수 있는 플랫폼을 말한다. OPEN AI의 CHAT GPT, '아마존(AMAZON)'의 AI 비서 '알렉사(Alexa)', '네이버(Naver)'의 '클로바(CLOVA)' 등은 모두 '자연어 처리(Natural Language Processing)' 기술을 기반으로 한 '대화형 플랫폼'이다. '자연어 처리' 기술은 '인공지능(AI)'의 주요 분야 중 하나로, 컴퓨터를 이용해 사람의 '자연어(Natural Language)'를 분석하고 처리하는 기술이다. 자연어는 일반 사회에서 자연히 발생하여 사람이 의사소통에 사용하는 언어로, 컴퓨터에서 사용되는 프로그래밍 언어와 같이 사람이 의도적으로 만든 '인공어(Constructed Language)'와 대비되는 개념이다.

 2013년까지 AI 기반의 음성 인식 정확도는 80% 아래에 머물렀다. 하지만 AI 기술의 급격한 발전에 힘입어 2017년도에는 95%까지 향상되었다. 2017년도부터 대화형 플랫폼 시장도 AI 기술과 함께 급격하게 성장하고 있다. 최근에는 스마트폰뿐만 아니라 '스마트 스피커', 'TV', '커넥티드 카 디바이스(Connected Car Device)' 등 다양한 종류의 단말에 '대화형 플랫폼'이 적용되고 있으며, '의료', '금융', '리테일 서비스(Retail Service)' 등 다양한 산업 분야에서도 활용 가능성이 있다고 전망된다.

 최근 TV 등에 탑재된 스마트 스피커의 사용이 증가하면서, 음성을 일차원적인 입력 수단으로 활용하는 유저들이 증가하고 있다. 또한 AI 비서 등 사람이 아닌 AI 모델이 출력한 결과 값을 활용하는 빈도가 증가하면서, 유저들의 행동 변화가 나타나고 있다. 이러한 유저들의 행동 변화를 고려할 때, 대화형 플랫폼의 발전·적용 가능성은 더욱 높아지고 있다. 기존의 대화형 플랫폼이 단순히 음성의 텍스트화였다면, 앞으로 '대화형 플랫폼'은 사람이 일상생활에서 발화한 모든 내용을 취합하여 정리하거나, 요약 결과를 제시하거나, 사람이 발화한 내용을 통역해 주거나, 시맨틱 웹 검색을 수행하거나, 일정 관리 등을 해주는 지능형 비서 역할을 수행하는 등 '종합적인 일상 서비스의 제공'을 궁극적인 목표로 하고 있다.

반응형

2. '대화형 플랫폼' 산업

 '대화형 플랫폼' 시장의 '가치사슬(Value Chain)'은 '기반 기술(Base Technology)', '플랫폼(Platform)', '하드웨어(Hardware)', '서비스(Service)'로 구성된다.

 '기반 기술(Base Technology)'은 '전처리(Pretreatment)', '학습(Learning)', 뉴럴 네트워크 구조를 포함한 '자연어 처리 기술(Natural Language Processing Technology)', 자연어 처리 결과에 따라 사용자에게 원하는 결과를 제공하기 위한 '정보 검색 기술(Information Retrieval Technology)' 등을 포함한다. 이러한 원천기술을 보유한 기업들이 '대화형 플랫폼'의 주요 플레이어로 활약하고 있다. '대화형 플랫폼'의 원천기술을 보유한 '구글(Google)', '마이크로소프트(Microsoft)'와 같은 기업들은 '오픈소스(Open Source)'를 공개하고, 플랫폼 비즈니스에 오픈소스를 활용할 수 있도록 하여, '서드 파티(Third Party)'를 참여를 통한 생태계 확대에 주력하고 있다. '서드 파티(Third Party)'란 해당 분야에 그 분야를 처음 개척했거나 원천기술을 확보하고 있는 등의 주요기업이 아니라, 해당 분야에 호환되는 상품을 출시하거나 타 기업의 주 기술을 이용한 파생상품 등을 생산하는 회사들을 가리키는 용어이다.

 대화형 플랫폼 시장의 '가치사슬'에는 다양한 플레이어들이 활약하고 있으며, 다양한 플레이어들 간의 협력을 통해 생태계가 확장되고 있다. '애플(Apple)'이나 '아마존(Amazon)'과 같이 플랫폼을 가지고 있는 업체들은 각각의 개별 기술을 가진 기업들을 인수함으로써, 대화형 플랫폼 시장을 이끌어나가고 있다. 또한 '커넥티드 카(Connected Car)'와 같은 분야는 신생 기업들의 단독 개발이 어려워, 기업 간 협력을 통해 기술 개발이 이루어지고 있다.

대화형 플랫폼 가치차슬
기반 기술 음성 인식(Speech Recognition)
자연어 이해(Natural Language Understanding)
데이터 분석(Data Analytics)
인공지능(AI)
플랫폼 아마존 알렉사(Amazon Alexa)
구글 어시스턴트(Google Assistant)
마이크로소프트 코타나(Microsoft Cortana)
하드웨어 스마트 스피커(Smart Speaker)
스마트폰(Smartphone)
스마트 TV(Smart TV)
커넥티드 카(Connected Car)
서비스 기기 조작(Device Control)
음악 스트리밍(Music Streaming)
검색(Research)
쇼핑(Shopping)

2-1. '대화형 플랫폼'의 급격한 성장세 전망

 음성 인식 기술이 다양한 디바이스에 적용되기 시작하면서, 대화형 플랫폼에 대한 사용자들의 진입 장벽이 낮아지고 있다. 특히 스마트 스피커가 급속히 가정에 보급됨에 따라 대화형 플랫폼 생태계가 급격하게 확장되는 추세이다. 글로벌 시장조사 전문 업체 'Grand View Research(2020)'에 따르면, 글로벌 AI 플랫폼의 시장 규모는 CAGR 26.3%로, 2020년 72억 5천만 달러에서 2027년 379억 9천만 달러로 성장할 것으로 전망하였다. 'AI 기술의 발전', '다양한 업종 및 디바이스와 AI 기술의 결합'이 '대화형 플랫폼' 시장의 성장세에 불을 지필 것으로 보인다. 다만 '챗봇(Chat Bot)', 'AI 비서' 등의 정확성 부족이 대화형 플랫폼의 주요 과제로 손꼽히고 있다. 대화형 AI에 대한 사용자들의 '인식 부족' 및 '거부감'이 시장의 주요한 제한 요소로 작용하고 있다.

반응형

3. '대화형 플랫폼' 핵심 기술

 '대화형 플랫폼(Interactive Platform)' 기술은 크게 '입력된 대화를 인식하는 기술', '자연어 처리 기술', '시맨틱 데이터를 분석하는 기술', '정보 검색 기술', '어플리케이션 적용 기술' 등으로 분류된다.

  1. 입력된 대화를 인식하는 기술: '입력된 대화를 인식하는 기술'은 단순히 음성을 텍스트화하는 것을 넘어서, 여러 명이 동시에 얘기하는 경우, 화자들의 음성을 분리하거나, 시끄러운 공간에서 수집된 음성의 '배경 노이즈(Background Noise)'를 제거하는 등의 기술을 포함한다.
  2. 자연어 처리 기술: '자연어 처리(Natural Language Processing)' 기술은 텍스트에 포함된 의미를 이해하고, 생략된 부분을 복원하는 등 컴퓨터가 대화 내용을 분석하고 이해하는 기술을 의미한다.
  3. 시맨틱 데이터를 분석하는 기술: '시맨틱 데이터(Semantic Data)'를 분석하는 기술은 특징을 추출하거나, 대화 내용을 모델링하는 등 '패턴 인식 기술(Pattern Recognition Technology)'을 포함하고, 시간이나 날씨 등을 기반으로 하는 '상황 인식 기술(Context Aware Technology)'도 포함된다.
  4. 정보 검색 기술: '정보 검색 기술'은 '오픈 데이터(Open Data)'와 연동시킴으로써 필요한 데이터를 추출하거나, '인공신경망(Artificial Neural Network)'을 기반으로 데이터를 분류하거나, '군집화(Clustering)'하여 정답을 찾아내는 기술을 말한다.
  5. 어플리케이션 적용 기술: '어플리케이션 적용 기술'은 음성 인식 결과를 각가의 어플리케이션에 적합한 형태로 출력하는 기술을 의미한다. '챗봇(Chat Bot)'의 경우, 사용자의 질의에 대한 채팅이 될 수 있고, 스마트 스피커의 경우 사용자 질의에 대한 답변 발화일 수 있으며, 지능형 비서의 경우 적합한 일정을 생성하여 캘린더에 저장하는 것일 수 있다.

3-1. 입력된 대화를 인식하는 기술

 '대화형 플랫폼'은 음성·문자 입력을 기반으로 사람과 컴퓨터가 대화하는 플랫폼을 의미한다. 대화형 플랫폼의 처음과 마지막에는 각각 '사람이 입력한 데이터를 컴퓨터가 인식할 수 있도록 변환하는 기술'과 '컴퓨터가 출력한 데이터를 사람이 인식할 수 있도록 변환하는 기술'이 필요하다. 사람이 음성을 인식하기 위한 기술을 '음성 인식(Voice Recognition)' 기술이라 하고, 문자를 인식하기 위한 기술을 '광학 문자인식(OCR: Optical Character Recognition)' 기술이라고 한다.

  1. 음성 인식(Voice Recognition): '음성 인식' 기술 중 입력된 음성을 텍스트화하기 위한 'STT(Speech to Text)' 기술은 크게 '음향 분석'과 '언어 분석'으로 나뉠 수 있다. '음향 분석'은 소리 고유의 정보 분석을 통해 소리의 종류를 분류하는 것으로, 다중 화자의 대화를 화자 단위로 분류하거나, 화자를 인식하여 권한이 있는 사용자만 특정 정보에 접근할 수 있도록 하는 등 다양한 방면으로 활용된다. '언어 분석'은 어휘·문맥·문법 모델링을 통해 '의미역(Rhematic Rule, 의미 역할)'을 인식하거나, 생략된 단어들을 복원하여, 문장에 담긴 실질적인 의미를 해석하는 데 활용된다.
  2. 광학 문자인식(OCR: Optical Character Recognition): '광학 문자인식(OCR)' 기술은 과거에는 '룰(Rule)' 기반으로 동작하였으나, 최근에는 AI 모델을 이용하여, 종이에 기재된 문자를 인식하여 컴퓨터에 입력할 수 있도록 하고 있다. 예컨대, 과거 수기로 입력했던 '병원 진료 기록', '계약서' 등의 전산화 등 다양한 분야에 활용되고 있다.

3-2. 자연어 처리 기술

 언어 분석을 통해 기준이 되는 단어와 문장과의 '유사도 판단', '패턴 인식' 또는 '상황 인식'을 기초로 문장의 실질적인 의미를 도출할 수 있다. '유사도 판단'에는 주로 '워드투벡터(Word2Vec)'를 기반으로 벡터 간 유사도 비교가 사용된다. '워드투벡터(Word2Vec)'란 단어 간 유사성을 판단하기 위해 단어의 의미를 벡터화하는 기술이다. 문장의 '패턴 인식'에는 문장에 포함된 특징을 추출하고, 특징을 뉴럴 네트워크 모델을 이용하여 분석하는 기술이 활용된다. 문장 패턴을 인식하여 해당 문장 다음에 나올 내용을 예측하거나, 이전 문장과의 연관성을 고려했을 때 해당 문장의 의미 분석을 수행할 수 있다.

 이전에는 사람의 발화 데이터를 '멜 필터(Mel-filter)'를 이용하여 '스펙트로그램(Spectrogram)'화하고 'DNN(Deep Neural Network)'을 이용하여 음소들을 인식하고, 어휘-발음 사전을 이용하여 실질적인 의미를 찾는 방식으로, '대화형 플랫폼'의 베이스가 되는 기술들이 활용되었다. 즉, 과거에는 각각의 단계들이 분절되어, AI 모델이 분절된 단계 중 일보하는 방식이었다. 하지만 최근에는 '종단 간(End to End)' 학습 방식으로 옮겨가고 있는 추세이다. 최근 '대화형 플랫폼'은 발화 데이터 자체를 'RNN(Recurretn Neural Networks)' 등의 AI 모델 등에 입력하면 발화 데이터의 의미를 모델에서 바로 출력하는 형태로 바뀌어가고 있다.

 또한 과거에는 '문장 패턴 인식'에 RNN의 일종인 'LSTM(Long Short-Term Memory)' 모델이 많이 사용되었으나, 최근 'CNN(Convolution Neural Networks)'의 성능이 향상되었다. 이에 따라, 음파를 '스펙트로그램(Spectrogram)'으로 변환한 후 이미지 형식으로 입력 데이터를 생성함으로써, 'CNN' 또는 '오토인코더(AutoEncoder)'를 이용하여 분석하기 위한 모델의 연구 개발이 증가하고 있는 추세이다.

3-3. 정보 검색 기술

 '대화형 플랫폼' 서비스들에 '자연어 처리(Natural Language Processing)' 결과를 활용하기 위해, '서버(Server)' 또는 '데이터베이스(Database)'에서 자연어 처리를 통해 획득한 의미를 기초로 검색을 수행해야 한다. 대화형 플랫폼에서의 데이터 검색은 'LOD 연동 기반', 'AI 기반' 2개로 나눌 수 있다.

  1. LOD 연동 기반: 'LOD(Linked Open Data)' 연동을 기반으로 검색을 수행하는 경우, 다양한 공공 데이터에 접근할 수 있다. 대화형 플랫폼의 경우, 예컨대 사용자가 '오늘의 날씨는 어때?'라고 스마트 스피커에 질문할 수 있다. '대화형 플랫폼' 운영 서버는 기상청에서 제공하는 공공 데이터에 접근하여, 자연어 처리를 통해 획득한 키워드인 '오늘' 및 '날씨'에 대응되는 데이터를 출력값으로 제공할 수 있다.
  2. AI 기반: AI 모델을 이용하여 원하는 데이터를 검색할 수도 있다. AI 모델을 이용하여 '라벨링(Labeling, 인공지능이 학습할 수 있는 형태로 데이터를 가공하는 것)' 되지 않은 데이터들을 '군집화(Clustering)'하고, 군집화 결과에 따라 데이터 검색을 수행할 수 있다. 예컨대, 콜센터에 고객이 전화해서 질문을 했을 때, 기존에 다른 고객들이 한 질문들과 그에 대한 실제 상담원의 답변을 기초로 고객 질문에 대한 답변을 생성할 수 있다. 즉, 라벨링이 되지 않은 데이터들을 활용하여 검색 결과를 생성할 수 있다. 라벨링이 되지 않은 데이터들을 유사도를 기초로 군집화하고, 군집화된 데이터들 중에서 유사한 집단을 찾거나, 또는 군집화된 데이터에 라벨을 부여함으로써 정답을 생성할 수 있다. 군집화된 데이터에 라벨을 부여하여 데이터의 분류를 수행할 수 있고, 분류 결과에 따라 데이터의 검색을 수행할 수 있다.
반응형

4. '대화형 플랫폼'에서의 다양한 서비스

 자연어 처리 기술이 발전하면서 다양한 분야에 '대화형 플랫폼'이 활용되고 있다. 현재는 사용자의 질문을 기반으로 AI 모델이 그에 대한 답변을 생성하는 형태로 많이 활용되고 있다. 추후 '자연어 처리 기술' 등 AI 기술의 발전에 따라, 단방향 플랫폼에서 사람과 AI 모델이 상호 작용할 수 있는 양방향 플랫폼으로 점차 발전될 전망이다. 단방향 플랫폼에서 현재 가장 활발하게 사용되고 있는 서비스는 '스마트 스피커'이다. 추후 '통번역', '챗봇(Chatbot)', '커넥티드 카(Connected Car)' 등에서의 다양한 활용 가능성이 전망된다.

4-1. 가상 개인 비서 서비스

 음성 인식 AI 비서 서비스를 탑재한 '스마트 스피커(Smart Speaker)'의 보급은 '음성 처리 기술'과 '대화형 플랫폼' 시장의 확대에 활발한 기여를 하고 있다. 사용자는 '스마트 스피커'에 명려을 내리거나 기기와 대화를 나눌 수 있다. '음악 재생', '알람 설정', '날씨·교통 정보 제공' 등 다양한 기능을 활용할 수 있다. '구글(Google)'에서 출시한 '구글 홈(Google Home)'의 경우, '구글 캘린더(Google Calandar)', '유튜브(Youtube)' 등과 연동하여 다양한 서비스를 제공하고 있다. 국내 스마트 스피커 제품은 '통신사', '인터넷 포털 기업', '가전 기업'에서 출시 중이며, 'KT', 'SK텔레콤'과 같은 통신사는 셋톱박스와 스마트 스피커가 결합된 상품을 제공 중이다. KT의 '기가 지니(GiGA Genie)'를 통해 사용자들은 TV 등 가전 기기들을 제어할 수 있고, 스마트 TV에서 AI 음성 인식을 활용하는 경우, 리모컨이 없이도 음성으로 TV를 켜고 끄거나, 채널·볼륨 조작이 가능해진다.

 뿐만 아니라, AI 음성 인식을 활용하여 자동 통번역을 수행할 수 있다. 텍스트 입력을 AI 모델을 이용하여 다른 언어로 번역할 수도 있다. 또 음성 입력을 자연어 처리한 후 AI 모델을 이용하여 연산함으로써, 다른 언어로 실시간 번역을 수행할 수도 있다.

4-2. 커넥티드 카 연계 서비스

 차량은 '대화형 플랫폼'이 가장 효과적으로 활용될 수 있는 디바이스이다. 운전 중에는 사용자들이 텍스트 또는 터치 입력을 수행하는 것이 용이하지 않다는 점에서, '대화형 플랫폼'의 활용 가능성이 더욱 크다. 차량에서 AI 서비스를 이용하기 위해서는 음성 AI 기술이 탑재된 '커넥티드 카(Connected Car)' 시스템을 활용하거나, 또는 스마트폰을 차량 디스플레이에 '미러링(Mirroring)'하여 이용할 수 있다. 음성 AI 기술이 탑재된 커넥티드 카 시스템의 경우, 차량 수명이 5년 이상으로 길다는 점을 고려하였을 때, 모델의 업데이트가 원활하지 않다는 단점이 존재한다. 따라서, 스마트폰 미러링 방식의 '커넥티드 카 시스템(Connected Car System)'의 활용도가 더 높을 것으로 예측된다.

 '구글(Google)'의 '안드로이드 오토(Android Auto)'와 '애플(Apple)'의 '카플레이(CarPlay)' 서비스 모두 스마트폰을 차량에 연결하여 사용하는 형태이다. 상기 서비스들은 음성 AI 서비스인 '구글 어시스턴트(Google Assistant)'와 '애플 시리(Apple Siri)'를 이용할 수 있다. 이러한 '디스플레이 미러링(DIsplay Mirroring)' 서비스는 스마트폰에서 실제 음성 AI 서비스가 동작하고, 화면만 차량 디스플레이에 표시되는 형태이다. 최근에 출시되는 '커넥티드 카 시스템'에는 '아마존 알렉사(Amazon Alexa)'나 '구글 안드로이드(Google Android)'가 탑재되는 경우도 다수 존재한다. '커넥티드 카 서비스'를 이용하여 차량 내 '음악', '네비게이션(Navigation)', '일정 관리' 기능을 이용할 수 있다. 다만, 네비게이션과 같은 서비스의 경우, 차량 내 '헤드업 디스플레이(UHD: Head Up Display)'나 '스마트폰의 화면'을 함께 참고해야 한다는 한계가 존재한다.

 앞으로 '차량 제조 기업'과 '소프트웨어 개발 기업' 간 협력을 통해 '커넥티드 카 시스템(Connected Car System)'의 활용이 증대될 전망이다. '아마존 알렉사'는 '아우디(Audi)'와 'GM'의 2020년형 이후 모델 차량의 시스템에 내장된 형태로 탑재되고 있다. '폭스바겐(Volkswagen)', '도요타(Toyota)', '포드(Ford)', '벤츠(Benz)', 'GM', '현대차', '기아차' 등 주요 자동차 메이커는 '안드로이드 오토(Android Auto)'를 지원하는 모델을 출시하였다.

4-3. 온라인 커머스의 발전

 '온라인 커머스(Online Commerce)'의 잠재력과 파급력에 힘입어, 음성 및 텍스트를 이용한 '온라인 커머스'가 주목받고 있다. '음성 커머스'는 음성을 이용한 AI 쇼핑 등의 서비스를 의미하며, '텍스트 커머스'는 텍스트를 기반으로 하는 상담 등의 서비스를 의미한다. 과거 오프라인 매장에서 온라인 커머스로 빠르게 발전한 선례를 보면, 차세대 커머스로 음성 및 텍스트가 활용될 것으로 전망된다.

  1. 텍스트 커머스(Text Commerce): '텍스트 커머스'는 상담 인력을 대체하여 비용 절감을 할 수 있다는 측면에서 주목받고 있다. '챗봇'을 활용한 상담은 기존 상담원의 음성 상담에, 더 나아가 추가적인 정보 제공을 원활하게 수행할 수 있다. 예컨대 보험 계약을 수행할 경우, 보험 계약서를 챗봇 채팅창에 띄워줌으로써 추가적인 정확한 정보 제공을 수행할 수 있다.
  2. 음성 커머스(Voice Commerce): '음성 커머스'는 가장 직관적인 수단인 음성을 이용하기 때문에, 주문 과정이 모바일보다 간단할 수 있다. 또한 기기 조작에 익숙하지 않은 사람도 쉽게 온라인 서비스들을 이용할 수 있고, 개개인의 음성이 개인 식별 정보가 될 수 있다는 점에서 '보안', '인증'까지도 한 번에 해결할 수 있다.
반응형

5. '대화형 플랫폼' 발전을 위한 해결 과제

 AI 스피커 등 '대화형 플랫폼'에 활용되는 기기는 실생활 곳곳에 위치하고 있다. 이러한 기기들은 항시 실행을 대기하면서, 사용자들의 음성 대화를 수집할 수 있다. AI 모델의 특성상 지속적으로 새로운 데이터를 수집하고, 새롭게 수집된 데이터들을 이용하여 모델을 새롭게 학습해야 한다. 따라서 사용자들의 음성 대화를 수집할 수밖에 없는 AI 모델은, 개인의 프라이버시를 침해할 수 있다는 문제점을 가지고 있다. 사용자들의 음성을 학습하는 경우, AI 생성 모델을 이용하여 실제로 그 사용자가 발화하는 것과 같이 음성을 생성할 수 있다. 이러한 경우, 사용자의 음성을 활용하여 음성 결재에 도용하거나 또는 보안 벽을 무너트릴 수 있다는 문제점이 존재한다. 이에 따라 보안 문제에 대한 해결 방안도 함께 마련할 필요성이 있다.

 뿐만 아니라, 자연어 처리 성능 자체가 한국어의 경우 영어보다 낮다는 문제점이 존재한다. 또한 다소 복잡한 문장이나 2단계에 걸쳐서 이어지는 질문들에 대한 AI 모델의 처리 성능이 떨어진다. 따라서 아직은 '자연어 처리(Natural Language Processing)' 성능 향상을 위한 상당한 연구 개발이 필요할 것으로 예상된다.

반응형

6. '대화형 플랫폼' 생태계 구축과 선점을 위한 전략

 '대화형 플랫폼' 시장은 다양한 플레이어들이 참여하는 특징 때문에, 생태계의 구축을 위한 다양한 전략이 존재한다. '대화형 플랫폼' 시장의 접근 전략은 크게 '수직계열화 전략'과 '개방형 전략'으로 나뉜다.

  1. 수직계열화 전략: '수직계열화 전략'은 한 제품에 대한 생산에서 판매까지 필요한 회사들을 계열사로 만드는 것으로, 아마존의 경우 대화형 플랫폼에서 수직계열화 전략을 채택하고 있다. 아마존은 기반 기술인 '자연어 처리'부터 음성 기반의 쇼핑 서비스까지 플랫폼의 전 영역에 대한 개발 및 서비스 제공을 수행하고 있다.
  2. 개방형 전략: '개방형 전략'은 대화형 플랫폼에 활용되는 기술을 공게하여, 서드파티 업체가 해당 기술을 활용할 수 있도록 하는 전략이다. '구글(Google)', '마이크로소프트(Microsoft)' 등은 기반 기술들을 오픈소스로 공개함으로써, 다른 업체들이 해당 기술을 기반으로 대화형 플랫폼을 제공할 수 있도록 하고 있다.

 대화형 플랫폼 시장에는 현재 '구글(Googel)', '아마존(AMAZON)'과 같은 플랫폼 기업뿐만 아니라, '삼성전자', 'LG전자'와 같은 제조사부터, '현대차'와 같은 자동차 기업, '네이버(Naver)', '카카오(Kakao)'와 같은 인터넷 플랫폼 기업, 'SK텔레콤'과 같은 통신 기업들까지 다양한 기업들이 참여하고 있다. '대화형 플랫폼' 시장에 참여하는 기업들은 장기적으로 '스마트홈(Smart Home)'부터 'IoT' 분야, 그리고 자동차 기기까지 전체 허브의 통합을 최종 전략으로 삼고 있다. TV, 냉장고와 같은 가전제품부터, 스마트폰, 스마트 스피커, 그리고 차량까지 IoT 기술로 연동 되고 있는 추세이며, 빠른 시일 내로 전체 기기들이 모두 하나의 허브로 연동될 것으로 전망된다. 이에 '구글(Google)'과 '아마존(Amazon)'은 스마트 스피커를 대화형 플랫폼의 허브로 내세우고 있으며, '삼성전자'와 'LG전자' 같은 가전 제조사는 '스마트 TV'를 시작으로 스마트홈 IoT 허브로 삼기 위한 연구 개발을 하고 있다.

 '허브 경쟁'을 통해 기업들은 자사의 플랫폼이나 하드웨어에 고객들을 '락인(Lock-in)' 시킴으로써, 타사의 플랫폼이나 하드웨어로 옮겨가기 어렵게 하는 전략을 내세우고 있다. 사용자들과 직접적으로 연관되는 대화형 플랫폼의 허블르 선점하는 기업이 추후 전체 대화형 플랫폼 시장의 상당한 점유를 할 수 있을 것으로 전망된다.

반응형

7. '대화형 플랫폼' 관련 기업

 '구글(Google)', '애플(Apple)', '아마존(AMAZON)' 등 글로벌 기업들은 2010년대 초반부터 음성 인식 기술을 전자 기기에 탑재해 출시하면서, 대화형 플랫폼을 선점하기 위한 치열한 경쟁을 수행하고 있다.

 한편, 국내에서는 '챗봇 상담, '스마트 TV', '스마트 스피커' 등의 활용 및 보급이 확대됨에 따라, 대기업들이 대부분 '대화형 플랫폼' 시장에 투자하고 있다. '삼성전자', 'LG전자'의 경우, '스마트 TV', '스마트 스피커' 등 스마트 홈 시장에 대화형 플랫폼을 적용하고 있다. 인터넷 플랫폼 기업인 '네이버', '카카오'의 경우 '대화형 플랫폼'을 기반으로 한 다양한 서비스들을 제공하고 있다. 국내 유수의 대기업들뿐만 아니라, 국내 스타트업들도 AI 기술을 기반으로 '대화형' 플랫폼'에 뛰어들고 있다.

7-1. 구글(Google)

  1. 국적: 미국

 '구글(Google)'은 2012년에 출시한 '구글 나우(Google Now)'를 공개하였고, 2016년에는 '구글 어시스턴트(Google Assistant)'를 공개하였다. '구글 어시스턴트(Google Assistant)'는 구글이 가지고 있는 방대한 데이터를 기반으로, 상당히 높은 정확도의 답변 및 양방향 커뮤니케이션을 제공하고 있다. '구글 안드로이드(Google Android)'는 차량에 탑재되어 차량 '인포테인먼트(Infotainment)'에 활용되고 있어, 추후 '커넥티드 카 시스템(Connected Car System)'에서 구글의 영향력이 커질 것으로 예상된다. 또한 구글은 고객들에게 의료 관련 문의에 신속하게 응답하기 위해, AI 기반의 신속 응답 가상 에이전트 프로그램을 '구글 클라우드(Google Cloud)'에 탑재하였다.

7-2. 애플(Apple)

  1. 국적: 미국

 '애플(Apple)'은 2011년 AI 기반으로 음성 인식을 수행하는 '시리(Siri)'를 아이폰4S에 탑재하여 대화형 플랫폼 경쟁의 포문을 연 바 있다. 애플은 이후 아이폰 이외에도 '맥(Mac)', '애플워치(Apple Watch)' 등에 시리를 탑재하여 사용자의 음성을 AI 기술로 분석하고 있다. 애플은 시리의 성능 향상을 위해 AI 스타트업인 '보이시스(Voysis)', '인덕티브(Inductiv)' 등 기업을 인수한 바 있다.

7-3. 아마존(AMAZON)

  1. 국적: 미국

 '아마존 알렉사(AMAZON Alexa)'는 '아마존'이 2014년에 공개한 AI 기반의 음성 인식 플랫폼이다. '아마존'은 플랫폼 개방 전략을 채택하여, 다른 기업에서 알렉사를 기반으로 새로운 서비스를 만들 수 있도록 하고 있다. '아마존'의 '알렉사'를 토대로 도미노의 주문 서비스, 우버의 호출 서비스, 삼성전자 및 LG전자의 스마트 TV 서비스 등이 개발되었다. 대화형 플랫폼 서비스들의 기반 기술을 제공하고 있다는 점에서, 추후 대화형 플랫폼의 '허브(Hub)' 역할을 할 가능성이 상당이 큰 것으로 전망된다.

7-4. 삼성전자

  1. 국적: 한국

 삼성전자는 2012년에 음성 인식 AI 비서 서비스인 'S 보이스'를 출시한 이후, 2017년에 새로운 AI 비서 서비스인 '빅스비(Bixby)'를 스마트폰인 '갤럭시(Galaxy)'에 탑재하였다. 삼성전자는 '빅스비(Bixby)'를 스마트폰 이외에도 생산 중인 가전제품에 탑재할 것이라는 계획을 2020년 초에 발표한 바 있다.

7-5. 네이버(Naver)

  1. 국적: 한국

 '네이버(Naver)'의 '클로바(CLOVA)'는. '날씨 알림', '네비게이션', '음악 검색' 기능 등을 제공함으로써, 사용자들의 라이프 어시스턴트로써 작동하고 있다. '네이버 클로바(Naver CLOVA)'는 뉴스, 쇼핑, 통번역 등의 분야에서 활약하고 있으며, '카카오i'는 현대차, 포스코, GS건설 등과 자동차 및 건설 관련 분야에서 두각을 나타내고 있다.

7-6. 솔트룩스(Saltlux)

  1. 국적: 한국

 '솔트룩스(Saltlux)'는 2000년에 설립된 인공지능 및 빅데이터 기술 기업인 '시스테마'를 시작으로, 2006년에 사명을 '솔트룩스'로 변경하였다. 솔트룩스는 2020년 7월, '기술 특례상장 제도'를 통해 '코스닥(KOSDAQ)' 시장에 상장되었다.

 '솔트룩스'는 언택트 사업과 관련하여 '인공지능 상담 챗봇', '인공지능 채용 심사', '챗봇 상담', '인공지능 상담사 지원 솔루션'을 제공하고 있다. '솔트룩스'는 삼림청, 관세청, 행정안전부 등으로부터 수주를 받아 인공지능 기반 미원 상담 플랫폼을 구축하기 위한 기술을 개발 중이다. 솔트룩스는 정부 부처 외에도 '삼성전자', '현대자동차', 'NH농협은행'을 고객사로 두고 'AI 기반의 상담 시스템', '뉴스 추천 서비스' 등을 구축한 바 있다.

7-7. 바이브컴퍼니(VAIV Company)

  1. 국적: 한국

 '바이브 컴퍼니(VAIV Company)'는 2000년에 '다음커뮤니케이션(Daum communications)'으로부터 분사하여 설립되었으며, '기계에게 사람 말을 가르치는 기업'을 모토로 하고 있다. 2020년 10월에는 '기술특례상장 제도'를 통해 '코스닥(KOSDAQ)' 시장에 상장되었다.

 '바이브 컴퍼니'는 '텍스트 마이닝 솔루션(Text Mining Solution)' 등의 '텍스트 데이터(Text Data)'를 분석하여, 정보를 제공하는 솔루션과 서비스를 자체 개발하여 제공하고 있다. '바이브 컴퍼니'는 2002년 '오피니언 마이닝 솔루션(Opinion Mining Solution)'을 개발하였으며, 해당 솔루션은 삼성전자에 제공되어 스마트폰과 같은 '고관여 제품(소비자가 적극적으로 정보를 수집하여 구매를 판단하는 제품)'에 대한 사용자들의 의견을 분석하여 '제품의 신규 개발·개선', '마케팅 전략', '리스크 탐지' 등에 활용 가능한 정보를 제공하였다. '바이브 컴퍼니'는 '자연어 처리(Natural Language Processing)' 기술을 기반으로, '국립암센터(National Cancer Cneter)'의 '챗봇(Chat Bot)', '국회 도서관의 상임위원회 관련 자료 수집 서비스', 'BC카드 및 KB 국민카드의 소셜 미디어 데이터를 기반으로 한 트렌드 분석 시스템', '삼성전자의 제품 리뷰 분석 시스템' 개발 등을 수행한 바 있다.

7-8. 셀바스 AI

  1. 국적: 한국

 '셀바스 AI'는 1999년에 설립된 '디오텍'이 2016년에 '셀바스 AI'로 사명을 변경하였다. '셀바스AI'는 2010년 음성 솔루션 업체인 '에이치씨아이랩(HCILab)'의 지분 인수를 통해 음성 사업에 진출하였다. '셀바스 AI'는 대화형 플랫폼이 적용되는 다양한 산업 중 의료 산업에 특히 주력하고 있다. '세브란스'와 협업하여 헬스케어 관련 기술을 연구 개발하고 있으며, '신한생명'과 함께 미래 건강을 예측하는 솔루션을 런칭한 바 있다.

 '셀바스 AI'는 '연세 세브란스 병원' 및 '한림대 동탄 성심병원'에 의료녹취솔루션인 '셀비 메디보이스(Selvy MediVoice)'를 공급한 바 있다. '셀비 메디보이스(Selvy MediVoice)'는 판독 결과를 음성으로 녹음하면 자동으로 문서화해 주는 시스템이다. 2020년 기준, 한국에서는 '의료 녹취 시스템' 관련 법제도가 마련되어 있지 않다. 하지만 국내 의료 분쟁 건수가 급증하면서, 대형 병원들 위주로 '의료 녹취 시스템'이 도입되고 있어, '셀비 메디보이스(Selvy MediVoice)'의 파급력도 증대될 것으로 예상된다.

셀비 메디보이스(Selvy MediVoice)