로봇이 괜찮은 치료사가 될 수 있을까요?

Ellie 치료사 봇 Talkspace 컨퍼런스

Siri, IBM의 Watson 및 Microsoft의 Cortana와 같은 대화를 할 수있는 고급 인공 지능을 보았습니다. 하지만 어떤 로봇 (심리 치료만을 위해 설계되고 앞서 언급 한 AI보다 더 발전된 것)이 괜찮은 치료사가 될 수 있을까요?





사람들은 사용했습니다 봇 하지만 그들이 우리 일생 동안 인간 치료사를 능가 할 수 있는지는 분명하지 않습니다. 치료사로서 로봇의 과거, 현재 및 가능한 미래를 살펴보면 로봇이 얼마나 효과적 일 수 있는지에 대한 아이디어를 얻을 수 있습니다.

치료사가 되려는 로봇의 초기 사례

ELIZA는 치료사 역할을 시도한 가장 초기의 가장 잘 알려진 프로그램 중 하나입니다. MIT 교수이자 컴퓨터 과학자 인 Joseph Weizenbaum은 Rogerian 심리 치료를 제공하기 위해 ELIZA를 설계했습니다.





Rogerian 심리 치료는 주로 내담자가 토론에 참여하는 것보다 더 많이 말하도록 장려하기 때문에 ELIZA의 제한된 대화 능력은 일부 사람들에게 그것이 인간임을 확신하고 문제에 대해 조금 더 기분이 나아지도록하는 데 충분했습니다. 그럼에도 불구하고 ELIZA는 인간 치료사와의 치료에 필적하는 어떤 것도 제공 할 수 없었습니다.

ELIZA의 한계를 입증하기 위해 저는 최신 ELIZA 시뮬레이터 :



ELIZA : 안녕하세요, 저는 Eliza입니다.
Talkspace : 안녕하세요 Eliza, 최근에 외롭고 우울해졌지만 그 이유를 잘 모르겠습니다. 이 문제를 파악하고 기분이 나아지도록 도와 주실 수 있습니까?
ELIZA : 아마도 당신이 이것을 알아 내고 기분이 나아지도록 도와주고 싶습니까?

아이의 adhd 테스트 방법

ELIZA가 내 텍스트를 가져 와서 다시 표현하는 방식에 주목하여 나에게 초점을 맞추고 대화보다는 더 많이 이야기하도록 격려합니다. 이 접근 방식은 일부 고객에게 효과적이지만 다른 고객에게는 금방 실망하고 쓸모 없게됩니다.

AI와 챗봇이 발전함에 따라 더욱 설득력있는 대화를 할 수있게되었습니다. 프로그래머가 치료를 위해 설계 했든간에 기술의 발전으로 ELIZA보다 훨씬 더 나은 치료를 제공 할 수있었습니다. 하지만 현대 봇은 일반적으로 인간 치료사에 필적 할만큼 지능적이지 않습니다.

기본 요법을 제공 할 수있는 최신 봇

선택할 수있는 더 큰 응답 데이터베이스를 만들고 자신에 대해 말할 수있는 프로그램을 개발함으로써 프로그래머는 치료사로서 더 쉽게 통과 할 수있는 로봇을 만들었습니다.

Talkspace 임상 컨퍼런스에서 치료의 미래 , USC 교수 겸 가상 인간 연구 책임자 Jonathan Gratch 시연 현대적인 형태의 인공 지능이 임상 검사와 기본 치료를 제공하는 방법 Gratch는 연구 중에 '우울증의 지표를 도출'하는 데 사용한 AI 인 Ellie를 소개했습니다.

Jonathan Gratch Ellie 퓨처 오브 테라피 컨퍼런스
Gratch는 이미지의 오른쪽에 있습니다.

다음은 참가자 간의 대화 중 일부입니다. Gratch의 연구 그리고 Ellie :

Ellie : 오늘 어떠세요?
참가자 : 잘하고 있습니다.
Ellie : 좋습니다. 원래 어디 출신입니까?
참가자 : 저는 로스 앤젤레스 출신입니다.
Ellie : 오, 저는 LA에서 왔어요.

ELIZA와 달리 Ellie는 자신이받은 응답 만 바꾸는 것이 아니라 자신에 대해 이야기하고 대화를 나눌 수있었습니다. Gratch에 따르면이 프로그램은 얼굴 표정을 인식하고 오디오와 자세를 분석합니다. 이 분석을 사용하여 응답을 공식화하고 톤을 조정합니다.

그럼에도 불구하고 Gratch는 Ellie가 인간 치료사가 할 수있는 종류의 이해를 제공 할 수 없다는 것을 인정했습니다.

Gratch는 '당신이 말하는 내용을 깊이 이해하지 못합니다.'라고 말했습니다. '저는 우리가 단기적으로 사람의 목표, 동기 및 필요를 근본적으로 이해할 수있는 기술을 사용할 수 없을 것 같습니다.'

나르시시스트 남편 다루기

Ellie는 안전한 방식으로 구현되었습니다. 그러나 봇이 치료사와 내담자 간의 대화와 같이 민감하고 중요한 대화 중에 감정을 이해하지 못하고 정보를 필터링하지 못하면 부정적인 결과가 발생할 수 있습니다.

이것의 한 예는 , Microsoft는 사람들과 상호 작용하고 그로부터 배우도록 설계 한 봇으로,받은 텍스트를 기반으로 응답과 행동을 지속적으로 수정합니다. Tay의 제작자는 인터넷의 모든 사람과 상호 작용할 수있는 Twitter에 공개한다는 끔찍한 아이디어를 가지고있었습니다.

Tay는 재미있는 속어를 사용하고 농담을하면서 순진하게 시작되었습니다. 그러나 트위터는 트롤로 가득 차 있기 때문에 테이가 인종 차별적 댓글을 내세우고 홀로 코스트를 부인하면서 끝났습니다.

Tay Twitter 페이지
마이크로 소프트는 테이를 폐쇄하고 사건 이후 트윗을 보호했다.

치료사 봇은 더 민감하지만 클라이언트로부터 불안정한 응답을 받고 그들을 위로하기보다는 상황을 악화시킬 위험이 여전히 있습니다.

로봇이 가까운 미래에 인간 치료사를 능가할까요?

로봇은 치료사의 창의적 사고와 공감 능력을 능가하는 데 수십 년이 걸립니다. 또한 치료사와 경쟁 할 수 없을 가능성도 있습니다. 그들은 유용한 임상 도구이지만, 살과 혈액 치료사 만이 내담자가 상당한 진전을 이루는 데 필요한 치료 관계를 만들 수 있습니다.