본문 바로가기
소식/해외

가장 정교한 챗봇은 얼마나 인간과 비슷합니까?

by Healing JoAn 2022. 6. 17.

온라인에서 가상 비서와 상호 작용할 때 상대방과 채팅하고 있지 않다는 것이 즉시 명확하지 않은 경우가 많습니다.

챗봇은 Google 엔지니어가 회사의 가장 진보된 시스템이 인간과 같은 감정을 개발했거나 지각이 있게 되었다고 주장한 후 지난 며칠 동안 헤드라인을 장식했습니다.

간단히 말해서 챗봇은 의도적으로 사람의 말을 모방하고 응답하도록 설계된 컴퓨터 프로그램입니다.

그러나 시장에서 가장 실물과 같은 것은 무엇입니까? 한 가지 확실한 것은 이러한 지능형 가상 비서가 이제 모든 곳에서 발견된다는 것입니다.

Amazon의 Alexa에서 Apple의 Siri 또는 소매업체의 웹사이트에 이르기까지 현재 우리 중 약 80%가 챗봇을 사용 하고 있습니다.

 

캐나다 토론토 요크대 학생인 사비나 고라노바(Sabina Goranova)는 일상적으로 챗봇을 사용하는 데 익숙하다는 점에서 많은 사람들의 전형이다.

첫째, 그녀는 집에 Alexa를 두고 있으며, 필요한 대학 정보를 찾기 위해 휴대 전화를 통해 대학의 Savy 시스템에 문의합니다.

우리 중 많은 사람들과 마찬가지로 Sabina Goranova는 이제 항상 챗봇을 사용합니다.

Savy는 IMB에서 York과 그 학생들을 위해 만들었습니다. 특정 직업 조언에서 매일 점심 메뉴에 이르기까지 모든 질문에 신속하게 답변할 수 있습니다.

고라노바는 "챗봇의 편리함을 높이 평가한다"고 말했다. "저는 이미 Alexa를 사용하여 시간을 절약했습니다. 그래서 Savy는 제 툴킷의 또 다른 도구입니다."

Guillaume Laporte는 현재 중국 인공 지능(AI) 및 지능형 가상 비서 회사 Laiye의 일부인 프랑스 챗봇 회사 Mindsay의 CEO입니다. 고객은 Nike에서 Walmart, 영국 기차 회사 Avanti에 이르기까지 모든 사람을 포함합니다.

"챗봇은 진정한 인간의 행동을 모방하기 시작했지만 본질적으로 로봇과 함께합니다."라고 그는 말합니다.

Laporte는 챗봇이 이제 "10년 전보다 10배 더 나아졌다"고 덧붙였습니다. 초기 프로그래밍 후 기계 학습 및 인공 지능(AI)을 사용하여 사용자가 말하는 내용이나 입력하는 내용을 배우고 이해할 수 있다고 덧붙였습니다. , 따라서 대답할 내용을 알고 있습니다.

그러나 그는 업계 전반의 챗봇이 여전히 완벽하지 않으며 여전히 사람의 백업이 필요하다고 경고합니다. "그래서 이해율은 회사와 산업마다 다릅니다. 30%에서 90% 사이가 될 수 있습니다."

Guillaume Laporte는 챗봇이 "진정한 인간 행동을 모방하기 시작하고 있다"고 말합니다.

University of England의 대화형 인공 지능 교수인 Jim Smith는 챗봇 전문가입니다.

그는 인간처럼 보이는 능력과 관련하여 "서비스를 제공하는 작업 지향적인 사람들과 사물에 대해 더 넓은 대화를 나눌 것으로 예상되는 사람들을 구별하는 것"이 ​​중요하다고 설명합니다.

"전자가 가장 많이 사용되는 것으로 정말 잘 작동할 수 있습니다."라고 그는 덧붙입니다. "그들은 대량의 텍스트를 사용하여 가르칩니다.

"따라서 그들이 콜센터에 있고 어떤 종류의 질문을 받을지 알고 있다면 인간과 같은 수준의 [고객] 서비스를 달성할 수 있습니다. 그리고 투명성을 위해 아마도 중요할 것입니다. 발신자에게 사람과 대화하고 있지 않음을 분명히 합니다.

챗봇은 이제 온라인 소매의 중심 부분입니다.

"당신과 더 많은 대화를 할 것으로 예상되는 챗봇의 경우 시작하는 것이 설득력 있어 보일 수 있지만 다음번에 당신에게 말해야 할 내용을 파악하기 위해 통계를 수행하고 있으며 오류는 계속해서 증가할 수 있습니다.

"그리고 궁극적으로 시스템이 매우 좋아지면 10년 [시간] 안에 인간과 같은 성능이 무엇인지 측정하기가 어렵습니다. 내 말은, 애완용 앵무새가 당신에게 말하는 것처럼 보입니다!

"그리고 나는 챗봇이 지각이 있다고 말하는 것이 의미가 있는지 확신하지 못합니다. 결국 껐다가 다시 켤 수 있는 것은 생물이 아닙니다."

구글 엔지니어 블레이크 르모인(Blake Lemoine)의 논란이 된 발언이 전 세계 헤드라인을 장식했다.

옥스퍼드 대학교 AI 수석 연구원인 산드라 와흐터(Sandra Wachter) 교수는 챗봇이 현재 "인물처럼 보이거나 인간처럼 보이는 것과는 거리가 멀다"고 말했다.

"하지만 앞으로 나아가면서 윤리적 책임에 대해서도 생각해야 합니다."라고 그녀는 덧붙입니다. " 언뜻보기에 챗봇은 실제 인간과 채팅하는 것처럼 보일 수 있습니다. 그리고 잠재적인 피해로 이어질 수 있으므로 이러한 혼란을 피해야 할 윤리적 책임이 있습니다.

"'최상의' 경우에는 제한된 기능으로 인해 봇과 채팅할 때 좌절감을 느낄 뿐입니다. 최악의 경우에는 봇을 신뢰하고 그렇지 않은 경우에는 공유하지 않을 정보를 공유할 수 있습니다."

Wachter 교수는 챗봇이 인간처럼 되기에는 아직 갈 길이 멀다고 말합니다.

한편 IBM의 글로벌 최고 AI 책임자인 Seth Dobrin은 챗봇의 이점을 강조합니다. 그는 특히 코로나바이러스 전염병 동안 중요한 건강 메시지를 전달하기 위해 사용 증가를 지적합니다.

"예를 들어 National Health Service Wales를 봅시다."라고 그는 말합니다. "2020년에는 가상 에이전트 Ceri를 출시하여 안전하고 효과적인 격리, 자신과 가족 보호, 피로와 같은 증상 관리, 불안 대처 방법에 대한 조언 등 다양한 주제에 대해 시민들의 일반적인 질문에 대화식 어조로 답변했습니다. 불확실성 등이 있습니다."

그러나 많은 사람들이 챗봇을 싫어하고 매번 사람과 대화하고 싶어합니다. 영국 클리닉의 심리학자 스튜어트 더프(Pearn Kandola)는 이러한 감정을 이해한다고 말합니다.

"많은 사람들이 여러 가지 이유로 챗봇을 싫어하지만 특히 인간이 되기 위해 너무 열심히 노력하는 경우에는 더욱 그렇습니다."라고 그는 말합니다. "투명성, 공감, 커뮤니케이션에서 미묘한 어조를 포착하는 능력은 모두 다른 사람들과의 신뢰를 구축하는 데 중요한 요소입니다.

"이것이 우리가 누군가와 빠르게 '클릭'할 수 있는 이유입니다. 그러나 사람들이 우리의 관점을 이해하지 않거나 우리에게 공감하지 않으면 경계를 늦추는 이유이기도 합니다."

그는 챗봇이 수년에 걸쳐 개선되었을 수 있지만 "그들은 여전히 ​​기본적인 프로그래밍된 의사소통자이며 우리가 말하는 것의 중요한 단어, 어조 및 유머를 잘못 읽거나 놓칠 가능성이 있습니다."라고 말합니다.

댓글