의견 ai가 ai임을 공개해야하는 이유

ai가 ai임을 공개해야하는 이유

차례:

비디오: Bach, J.S. - "Air" Orchestral Suite N° 3 in D Major_BWV 1068 (십월 2024)

비디오: Bach, J.S. - "Air" Orchestral Suite N° 3 in D Major_BWV 1068 (십월 2024)
Anonim

Google은 최근 Duplex를 회개하여 식당 주인과 미용실 직원에게 Google 어시스턴트와 대화 중이며 녹화 중임을 명시 적으로 밝혔습니다.

구글은 5 월 I / O 개발자 컨퍼런스에서 듀플렉스를 처음 소개했을 때이 작지만 중요한 세부 사항을 생략했다. 언론의 반발이 계속되고 비평가들은 인간의 행동을 구별 할 수없는 방식으로 가장 할 수있는 AI 에이전트를 펼치게 될 영향에 대한 오래된 두려움을 새롭게했다.

구글은 듀플렉스를 조정함으로써 그 비판의 일부를 쉬게했다. 그러나 기업이 AI 에이전트의 아이덴티티에 대해 투명해야하는 이유는 무엇입니까?

AI 보조자가 사악한 목적을 수행 할 수 있습니까?

CEO 인 Joshua March은 "비즈니스 메시지를 보낼 때 AI 기반 챗봇과 상호 작용할 수 있다는 기대가 커지고 있습니다. 그러나 실제로 사람의 말을들을 때 일반적으로 실제 사람이 될 것으로 기대합니다."라고 CEO March Joshua는 말합니다. Coversocial의.

3 월은 우리가 정기적으로 AI와 의미있는 상호 작용을하는 사람들의 시작에 있으며, 이 분야의 발전으로 인해 해커가 악의적 인 목적으로 AI 에이전트를 악용 할 수 있다는 두려움이 생겼습니다.

Cujo AI의 네트워크 SVP 인 Marcio Avillez는“가장 좋은 시나리오에서는 악의적 인 의도를 가진 AI 봇이 사람들을 화나게 할 수 있습니다. 그러나 마르시오는 더 심각한 위협에 직면 할 수 있다고 덧붙였다. 예를 들어 AI는 특정 언어 패턴을 학습하여 사람을 조작하고 피해자를 사칭하며 바이 싱 (음성 피싱) 공격 및 유사한 활동을 수행하도록 기술을보다 쉽게 ​​적용 할 수 있습니다.

많은 전문가들은 위협이 실제로 존재한다는 데 동의합니다. CIO의 칼럼에서 Steven Brykman은 Duplex와 같은 기술을 활용할 수있는 다양한 방법을 제시했습니다. "적어도 사람이 사람을 호출하는 데는 여전히 제한적인 요소가 있습니다. 사람은 하루에 시간당 너무 많은 호출을 할 수 있습니다. 인간은 돈을 지불하고 휴식을 취해야합니다. 그러나 AI 챗봇은 문자 그대로 무제한으로 수많은 사람들에게 무제한으로 전화를 걸 수 있습니다."

이 단계에서 우리가 듣는 대부분은 추측입니다. 우리는 여전히 음성 어시스턴트의 출현으로 발생할 수있는 위협의 정도와 심각성을 알지 못합니다. 그러나 기술을 제공하는 회사가 AI 에이전트와 상호 작용할 때 사용자와 명시 적으로 통신하는 경우 음성 기반 어시스턴트와 관련된 많은 잠재적 인 공격이 해소 될 수 있습니다.

개인 정보 보호 문제

듀플렉스와 같은 기술 사용과 관련된 또 다른 문제는 개인 정보 보호에 대한 잠재적 위험입니다. AI 기반 시스템은 알고리즘을 훈련하고 개선하기 위해 사용자 데이터가 필요하며, 듀플렉스도 예외는 아닙니다. 데이터를 저장, 보호 및 사용하는 방법은 매우 중요합니다.

회사가 정보를 수집하려고 할 때 사용자의 명시적인 동의를 얻어야하는 새로운 규정이 등장하고 있지만, 대부분 사용자가 의도적으로 상호 작용을 시작하는 기술을 다루도록 설계되었습니다. 이는 사용자가 활성화 한 Siri 및 Alexa와 같은 AI 보조자에게 적합합니다. 그러나 새로운 규칙이 트리거되지 않고 사용자에게 접근하는 AI 보조자에게 어떻게 적용되는지는 명확하지 않습니다.

그의 기사에서 Brykman은 회사가 AI 에이전트의 존재를 선언하도록 요구하는 법률 또는 챗봇이 챗봇인지 여부를 묻는 경우 "예, 저는 챗봇입니다. " 이러한 조치는 인간 대담 자에게 자신의 음성을 녹음하는 AI 시스템과 상호 작용할 것인지를 결정할 수있는 기회를 제공합니다.

이러한 법률이 있더라도 개인 정보 보호 문제는 사라지지 않습니다. "기술의 현재 화신에서 내가 예상하는 가장 큰 위험은 Google이 아직 가지고 있지 않은 사생활에 대한 더 많은 데이터를 Google에 제공 할 것이라는 점입니다.이 시점까지 그들은 온라인 커뮤니케이션에 대해서만 알았으므로 이제는 실제 통찰력을 얻을 수 있습니다. Xineoh의 설립자이자 CEO 인 Vian Chinner는 말합니다.

자신의 이익을 위해 의심스러운 방식으로 사용자 데이터를 사용한 대기업과 관련된 최근의 개인 정보 스캔들은 우리 삶에 더 많은 창을 제공하는 것에 대한 불신을 불러 일으켰습니다. Chinner는“일반적으로 사람들은 큰 실리콘 밸리 회사들이 고객 대신 재고로 재고하고 있으며 거의 ​​획기적인 변화와 삶의 변화에 ​​관계없이 거의 모든 것에 대해 불신을 느낀다고 생각한다”고 말했다.

기능 고장

자연스러운 음성과 톤이 있고 "mmhm"및 "ummm"과 같은 인간과 같은 사운드를 사용 함에도 불구하고 Duplex는 다른 최신 AI 기술과 다르지 않으며 동일한 제한이 적용됩니다.

AI 에이전트는 음성 또는 텍스트를 인터페이스로 사용하더라도 특정 문제를 해결하는 데 능숙합니다. 그렇기 때문에 우리는이를 "좁은 AI"라고 부릅니다 ("일반 AI"(인간의 마음처럼 일반적인 문제 해결에 관여 할 수있는 인공 지능 유형)). 좁은 AI는 프로그래밍 된 작업을 수행하는 데 탁월한 성능을 발휘할 수 있지만 문제 영역에서 벗어난 시나리오가 제공되면 크게 실패 할 수 있습니다.

Conversocial의 3 월은 "소비자가 자신에게 인간과 대화하고 있다고 생각하면 AI의 일반적인 대본 밖에있는 무언가를 묻고 봇이 이해하지 못할 때 답답한 답을 얻을 것"이라고 말했다.

반대로, 식당에서 테이블을 예약하도록 훈련 된 AI와 대화하고 있다는 사실을 알면 AI를 혼동하고 예상치 못한 방식으로 동작하도록하는 언어 사용을 피하려고합니다. 그들 고객.

"Duplex로부터 전화를받는 직원들도 실제 사람이 아니라는 간단한 소개를 받아야합니다. 이는 직원과 AI 간의 의사 소통이보다 보수적이고 명확 해 지도록 도와줍니다."

이러한 이유로, 인간 지능과 동등한 성능을 발휘할 수있는 AI를 개발할 때까지 (그리고 만약에) AI 사용에 대해 투명하게하는 것은 회사 자체의 이익입니다.

하루가 끝날 무렵 Duplex와 같은 음성 어시스턴트에 대한 두려움의 일부는 새로운 음성으로 인해 발생하며 새로운 설정 및 사용 사례에서 여전히 만나고 있습니다. "최소한 일부 사람들은 로봇을 모르는 상태에서 로봇과 대화한다는 생각에 매우 불편 해 보이기 때문에 당분간 대화 상대에게 공개해야 할 것"이라고 Chinner는 말합니다.

  • AI는 또한 좋은 힘이다. AI는 또한 좋은 힘이다.
  • AI가 현실과 소설 사이의 선을 흐리게하는 경우 AI가 현실과 소설 사이의 선을 흐리게하는 경우
  • 인공 지능은 바이어스 문제가 있으며, 우리의 잘못입니다 인공 지능은 바이어스 문제가 있으며, 우리의 결함입니다

그러나 장기적으로 우리는 이전에 인간 운영자의 독점 영역으로 생각되었던 작업을보다 똑똑하고 더 유능한 AI 에이전트와 상호 작용하는 데 익숙해 질 것입니다.

"차세대는 AI 나 인간에게 비즈니스에 연락 할 때 신경 쓰지 않아도됩니다. 그들은 빠르고 쉽게 답변을 얻고 싶어 할 것입니다. 알렉사와 대화하면서 자라날 것입니다. Conversocial의 행진은 인간과 대화하는 것이 봇과 상호 작용하는 것보다 훨씬 더 실망스러운 일이라고 말합니다.

ai가 ai임을 공개해야하는 이유