본문 바로가기
카테고리 없음

(기타 잡지식)Action On Google

by 흥부와놀자 2020. 7. 6.

현장실습에서 Action On Google이란 플랫폼을 이용해 프로젝트를 시작했다. Action On Google은 Google Assistant를 개발하기 위한 개발 플랫폼으로써 여러 기업이나 어플 개발자가 Google Assistant를 통해 들어오는 Input에 대해 반응형 앱을 개발 할 수 있는것이다. 해당 앱들의 플랫폼은 GoogleAssistant가 되므로 사용자는 따로 스토어를 통해 다운받을 필요 없이 단순히 Google Assistant로 해당 앱을 호출만 해주면 된다.

 

AOG(Action On Google)앱의 내부 과정

 

참고이미지(http://www.kwangsiklee.com/2018/01/%EA%B5%AC%EA%B8%80-ai-%ED%94%8C%EB%9E%AB%ED%8F%BC-actions-on-google-%EB%88%88%EC%9C%BC%EB%A1%9C-%EB%94%B0%EB%9D%BC%ED%95%98%EB%A9%B0-%EB%B0%B0%EC%9A%B0%EA%B8%B0/)

먼저 사용자가 Ga(Goolgle Assistant)에 명령어를 입력한다.(Speech)  그러면 Ga는 들어온 Speech를 Text로 변환시켜 준다. 그럼 이제 부터 변환된 Text의 형태소, 구문 등을 분석해 주는 Natural Language Processing(NLP) 과정을 거친다.

이과정을 대신 해주는게 Dialogflow라는 구글의 전용 NLP 플래폼인데 이것을 통해 들어온 Text의 Intent(의도),Entity(의도를 구성하는 Parameter), Context(문맥)을 뽑아낸다. 

 

예를 들면 "나는 날씨를 알고싶어", "날씨가 어떨까?" 라는 텍스트들의 Intent(의도)는 '날씨를 알고싶다' 가 된다.

"나는 서울의 날씨를 알고 싶어" , " 내일의 날씨는 어떨까?"에서 서울과 내일은 각각 의도를 구성하는 매개변수가 되며 이를 Entity라고 한다. 

 

Dialog Flow를 통해 Intent를 따로 설정하고 학습시킬 수 있다. 그리고 이렇게 뽑아낸 Intent, Entity는 미리 만들어둔 Fullfillment(서버)에 들어가고 AOG앱 개발자가 설계한 대로 사용자에게 반응을 출력하게 된다.  만약 결과가 Speech로 출력되는 형태라면 다시 Text to Speech의 과정을 거친다.

 

구글은 아마도 이렇게 누구나 쉽게 개발할 수 있도록 하여 접근성을 높임으로써 더 많은 컨텐츠를 생산해 내어 GA의 사용률을 높일 목적인것 같다.

 

오늘은 현장실습 첫날이라 아직 자세한 개발과정은 숙지를 못했다.  앞으로 차차 숙지를 해나감에 따라 계속 포스팅 할것이다.