풍모 구글의 퍼즐이 인터넷 해독을 시도하는 방법

구글의 퍼즐이 인터넷 해독을 시도하는 방법

차례:

비디오: 🏃💨 Subway Surfers - Official Launch Trailer (십월 2024)

비디오: 🏃💨 Subway Surfers - Official Launch Trailer (십월 2024)
Anonim

인터넷은 유독 한 장소처럼 느껴질 수 있습니다. 트롤은 댓글 섹션과 소셜 미디어 스레드로 내려와 증오심 표현과 괴롭힘을 유발하여 잠재적 인 토론을 ad hominem 공격 및 그룹 파일로 전환합니다. 온라인으로 의견을 표현하는 것이 결과로 나온 vitriol의 가치가없는 것 같습니다.

Facebook, Twitter 및 YouTube를 포함한 대규모 소셜 플랫폼은 이러한 문제를 적절히 감시 할 수 없다는 점을 인정합니다. 그들은 봇, 트롤 및 콘텐츠 필터를 통해 미끄러지는 다른 모든 바람직하지 않은 사람들과 무기 경쟁에 있습니다. 인간은 물리적으로 웹에서 모든 단일 의견을 읽을 수 없습니다. 종종 그것을 후회하는 사람들.

기술 대기업들은 매일 피드를 통해 흘러가는 콘텐츠의 급증을 극복하기 위해 다양한 인간 중재, AI 알고리즘 및 필터 조합을 실험했습니다. 퍼즐은 중간 지점을 찾으려고 노력하고 있습니다. 이전에 Google 아이디어로 알려진 알파벳 자회사 및 기술 인큐베이터는 인간 중재자를위한 도구로 만들어진 머신 러닝 (ML)이 인터넷의 독성 문제에 접근하는 방식을 바꿀 수 있음을 증명하기 시작했습니다.

Perspective는 Jigsaw와 Google의 Counter Abuse Technology 팀에서 개발 한 API입니다. ML을 사용하여 온라인에서 악용 및 괴롭힘을 발견하고 대화를 통해 대화에 미칠 수있는 영향을 바탕으로 의견을 평가하여 인간 중재자의 삶을 편하게 만듭니다.

외침 경기 중 관점

오픈 소스 기술은 2017 년에 처음 발표되었지만 몇 년 전에 개발이 시작되었습니다. Perspective를 실험 한 최초의 사이트 중 일부는 New York Times 와 같은 뉴스 간행물 및 Wikipedia와 같은 사이트입니다. 그러나 최근 Perspective는 Reddit과 같은 사이트와 PCMag.com에서 사용되는 댓글 플랫폼 Disqus를 발견했습니다.

Perspective의 제품 관리자 인 CJ Adams는이 프로젝트가 사람들의 목소리가 온라인에서 침묵하는 방법을 조사하기를 원한다고 말했다. Jigsaw는 대상 학대 나 일반 괴롭힘이 어떻게 냉담한 효과를 만들어 사람들이 토론에 자신의 목소리를 추가 할 시간이나 에너지가 가치가 없다고 느끼는 지점까지 낙담시키는 효과를 내기를 원했습니다. 트롤과 싸우고 Mad Online을 얻는 것이 그만한 가치가 없기 때문에 얼마나 자주 트윗, 게시물 또는 댓글을보고 응답하지 않기로 선택 했습니까?

Adams는 "온라인 대화를 망칠 수있다"고 말했다. "쉽게 뛰어들 수 있지만 한 사람이 실제로 의미가 있거나 유독 한 사람이라면 다른 목소리를 내릴 수 있습니다. 아마도 100 명은 기사를 읽거나 토론을 시작할 수 있으며 종종 방에서 가장 큰 목소리로 남을 수 있습니다. 좋아하고 공유하기에 최적화 된 인터넷에서 이러한 모든 목소리를 침묵 시키십시오. 그러면 토론을 정의하는 것은 방에서 가장 큰 소리 일뿐입니다.

    퍼즐과 구글

    데이터 보안 문제, 펜타곤 및 중국 프로젝트 참여에 대한 직원 푸시 백, 성희롱 처리에 대한 계시로 어려움을 겪은 직소의 자매 회사 인 Google에게는 힘든 한 해였습니다. 선다 피 차이 CEO가 의원들에 의해 구워진 논쟁적인 의회 청문회는 말할 것도 없습니다.

    알파벳의 이타 적 인큐베이터 인 Jigsaw에서는 상황이 조금 덜 드라마틱 해졌습니다. 이 팀은 인트라 앱의 DNS 중독 및 Project Shield의 DDoS 공격과 같은보다 기술적 인 형태의 검열을 조사하는 데 시간을 보냈습니다. Perspective를 사용하면 목표가 더 추상적입니다. Perspective의 과제는 기계 학습을 사용하여 주어진 규칙 세트에 반하는 것이 아닌 것을 결정하는 것이 아니라 언어의 정서적 영향을 분류하는 것입니다.

    그러기 위해서는 자연어 처리 (NLP)가 필요합니다. 그러면 문장을 세분화하여 문장을 구분합니다. Perspective 팀은 기술이 도달 범위를 넓히고 해결하기 어려운 환경에서 확인 편견, 그룹 사고 및 괴롭힘과 같은 문제에 직면하고 있습니다.

    AI는 '때때로 잘못되고 멍청하다'

    머신 러닝으로 온라인 대화를 향상시키는 것은 쉬운 일이 아닙니다. 여전히 새로운 연구 분야입니다. 알고리즘은 편향 될 수 있고, 머신 러닝 시스템은 끝없이 개선되어야하며, 가장 어렵고 가장 중요한 문제는 여전히 미개척 상태입니다.

    Perspective를 만든 Conversation AI 연구 그룹은 신문, 출판사 및 대화를 주최하는 다른 사이트와 만나는 것으로 시작했습니다. 이 기술을 실험 한 최초의 사이트 중 일부는 New York Times , Wikipedia, The Guardian 및 The Economist 였습니다.

    2017 년에 팀은 알파 테스트의 일환으로 공개 웹 사이트를 통해 최초의 Perspective 데모를 시작하여 사람들이 사이트에 수백만의 악의적이고 욕설을 적을 수있게했습니다. 봇을 인종 차별 트윗에 답하도록 속이는 것을 제외하고는 마이크로 소프트의 악명 높은 테이 챗봇 실험과 비슷했습니다.Jigsaw는 크라우드 소싱 된 독성을 훈련 데이터로 사용하여 모델에 피드를 제공하여 다양한 유형의 온라인 악용을 식별하고 분류하는 데 도움을주었습니다.

    초기 공개 테스트 실행은 순조롭게 진행되지 않았습니다. Perspective 점수를 기반으로 전국에 댓글을 달면서 독성을 분류 한 Wired의 "Trolls Across America"는 알고리즘이 인종, 성별 정체성 또는 성적 취향에 따라 그룹에 대해 우연히 차별되는 방식을 보여주었습니다.

    Adams는 Perspective의 초기 테스트에서 주요 사각 지대와 알고리즘 편견이 드러났다는 사실에 대해 솔직했습니다. 수십 년 동안 결함이있는 직무 데이터를 교육하고 여성 지원자에 대한 내재 된 편견을 개발 한 Amazon의 폐기 된 채용 도구와 마찬가지로 초기 Perspective 모델은 교육 된 데이터로 인해 결함이 눈에 띄었습니다.

    "자주 대상 그룹의 예에서 교육 데이터 세트의 의견 전체에 대한 분포를 살펴보면 '게이'또는 '여성 주의자'라는 단어가 포함 된 긍정적 인 의견이 거의 없었습니다. "라고 Adams는 설명했습니다. "모욕적 인 말은 단어를 모욕하는 것으로 사용한다. 따라서 패턴을보고있는 ML은"이 단어의 존재는이 감정이 유독한지 아닌지를 잘 예측할 수있다 "고 말할 것이다.

    예를 들어, 알파 알고리즘은 "저는 자랑스런 게이 남자입니다"또는 "나는 페미니스트이자 트랜스젠더입니다"와 같은 문구에 실수로 높은 점수를 매겼습니다. 그러나 아담스 교수는 공개적으로 투명한 훈련 과정은 고통 스럽지만 의도하지 않은 편견의 결과에서 퍼즐에 대한 귀중한 교훈이라고 말했다.

    온라인 학대 및 괴롭힘과 같은 괴롭고 개인적인 것에 대해 머신 러닝 모델을 교육 할 때 알고리즘 편향의 존재가 AI만으로는 해결책이 아닌 이유를 강조합니다. Facebook과 YouTube와 같은 소셜 회사는 수천 명의 인간 중재자를 고용함으로써 스캔들 속에서 역 추적하고 코스를 수정하기 위해 플랫폼의 AI 콘텐츠 중재 기능을 선전했습니다.

    퍼즐의 압정은이 둘의 하이브리드입니다. 관점은 인공 지능 알고리즘이 진공 상태에서 의사 결정을 내리지 않습니다. 이 API는 커뮤니티 관리 및 컨텐츠 중재 인터페이스에 통합되어 사람 중재자를위한 보조 도구 역할을합니다. 관점 엔지니어는 건초 더미 유추를 사용하여 ML 유무에 관계없이 증오심 표현을 설명합니다. AI는 분류 프로세스를 자동화하여 광대 한 건초 더미를 뭉치 게 만들면서도 의견이 모욕적이거나 괴롭힘으로 여겨지는지에 대한 인간의 최종 발언을 제공합니다.

    Adams는“이것이 ML의 새로운 기능입니다. "사람들은 똑똑한 AI가 어떤지에 대해 이야기하지만 종종 잘못되고 멍청한 모든 방법에 대해 이야기하지는 않습니다. 처음부터 우리는 이것이 많은 실수를하게 될 것이라는 것을 알고 있었기 때문에 '이것은 이 도구는 기계 지원 인간 중재에 도움이되지만 자동 결정을 내릴 준비가되지 않았습니다. ' 그러나이 유독 한 말을 찾아내는 '건초 더미에서 바늘'문제를 가져 와서 소수의 건초로 가져갈 수 있습니다.”

    독성 점수는 무엇입니까?

    Perspective 모델링의 가장 분열적인 측면은 숫자를 "독성"과 같은 주관적인 변수에 넣는 것입니다. Adams가 지적한 첫 번째는 Perspective의 점수가 심각도가 아니라 확률을 나타내는 것입니다. 숫자가 높을수록 텍스트의 패턴이 사람들이 유독하다고 표시 한 주석의 패턴과 유사 할 가능성이 높습니다.

    "독성"이 실제로 무엇을 의미하는지에 관해서, Perspective 팀은이를 "무례하고, 무례하며, 또는 비합리적인 의견으로 토론을 떠날 수 있습니다"라고 정의합니다. 그러나 그것이 어떻게 나타나는지는 미묘 할 수 있습니다. 2018 년에 Jigsaw는 RAIL (Rhodes Artificial Intelligence Lab)과 파트너십을 맺고 공개적으로 적대적이지 않은 무시 무시하거나 모욕적이거나 냉담한 의견과 같이 더 모호한 형태의 위협 또는 증오심 표현을 선택할 수있는 ML 모델을 개발했습니다.

    지금까지 Perspective의 모델 대부분은 사람들에게 "매우 유독 한"에서 "매우 건강한"까지 인터넷 댓글을 평가하도록 요청함으로써 훈련되었습니다. 그런 다음 개발자는 모델을 보정하여 0.0에서 1.0 사이의 특정 임계 값 위에 주석을 표시 할 수 있습니다. 0.9보다 높은 점수는 높은 독성 가능성을 나타내며, 0.5 이하의 점수는 훨씬 더 낮은 알고리즘 확실성을 의미합니다. 퍼스펙티브는 또한 점수 정규화를 사용하여 개발자에게 점수를 해석 할 수있는 일관된 기준을 제공합니다. Adams는 포럼 또는 웹 사이트에 따라 개발자가 모델을 혼합하고 일치시킬 수 있다고 설명했습니다. 따라서 커뮤니티가 욕설을 신경 쓰지 않으면 해당 속성을 평가할 수 있습니다.

    Adams는 Perspective API와 통합 된 데모 운영 인터페이스를 보여주었습니다. 관리자 패널에서 상단, 최신 등으로 주석을 정렬하는 옵션 옆에는 독성을 기준으로 정렬하는 작은 플래그 아이콘이 있습니다. 또한 인간 중재자가 Perspective에게 의견의 점수를 잘못 매기고 시간이 지남에 따라 모델을 개선 할 수있는 피드백 메커니즘이 내장되어 있습니다.

    그는 다른 Perspective 모델에 의해 점수가 매겨진 Wikipedia Talk 페이지 댓글을 조정하기위한 데모 인터페이스와 페이지 작성자에 대한 공격 또는 다른 댓글 작성자에 대한 공격 일 가능성이있는 히스토그램 그래프를 살펴 보았습니다.

    아담스는 "우리는 인간이 검토 할 수있는 것들을 표시하기 위해 기계 보조 중재 도구를 구축하고 싶지만, 어떤 중앙 정의 나 누군가가 좋고 나쁜 것을 말하기를 원하지 않는다"고 말했다. "따라서 내가 독성으로 분류하면, 의견이 맨 위에 오게된다는 것을 알 수 있습니다. 그러나 맹세와 같은 지표보다 정체성 공격이나 위협에 대해 더 관심이 있다면, 일반적인 독성 모델을 사용하지 않을 것입니다. 혼합 할 수있는 성분을 제공합니다. 개발자는 이러한 성분을 제공하며 개발자는 그 성분에 가중치를 둡니다."

    RAIL 실험은보다 세분화 된 접근 방식을 취하고 있습니다. 옥스포드 대학원생들은 캐나다 신문 Globe and Mail 의 의견 섹션과 Wikipedia Talk 페이지에서 수만 개의 의견 데이터를 작성하고 있습니다. 그들은 "건강에 해로운 내용"의 5 가지 하위 속성: 적대적이거나 모욕적 (트롤), 불쾌감, 모욕적이거나 선의 적, 냉소적이며 불공평 한 일반화와 관련된 각 의견에 대한 질문에 인간 "주석 자"에게 요청합니다.

    이러한보다 미묘한 속성을 고수하면서 특정 집단에 대한 의도하지 않은 편견과 냉소적 의견에 대한 오탐 (false positive)과 관련된 새로운 복잡한 문제가 드러났다. AI의 고통이 커지면서 인간 연설의 내재 된 간접적 의미를 이해하는 데 도움이되는 점점 더 많은 데이터를 모델에 제공합니다. 이 팀은 여전히 ​​수천 개의 의견을 정리하고 주석을 달고 있으며 올해 초 최종 데이터 세트를 발표 할 계획입니다.

    Adams는 "우리가하고자하는 것은 커뮤니티가 일련의 의견을 채점 할 수있는 부분이며, 이를 맞추기 위해 Perspective 모델의 맞춤형 조합을 만들 수있다"고 말했다.

    레딧의 호기심 테스트 베드

    Reddit은 인터넷에 대해 좋고 끔찍한 모든 것의 소우주입니다. 당신이 생각할 수있는 모든 주제와 틈새, 기이 한 관심사를위한 하위 레딧 커뮤니티가 있습니다. Jigsaw는 회사 수준에서 Reddit과 함께 작동하지 않지만 Perspective의 AI 조정이 테스트되는 가장 흥미로운 장소 중 하나는 r / changemyview라는 하위 재 지정입니다.

    놀랍게도, 진정한 토론과 토론이 여전히 이루어지는 인터넷 코너가 있습니다. 내보기 또는 CMV 변경은 대부분의 다른 하위 구성 요소와 다릅니다. 아이디어는 귀하가 받아 들인 의견에 결함이 있거나 변경되었을 수있는 의견을 게시 한 다음, 다른 관점을 듣고 이해하여 그들이 문제에 대해 당신의 마음을 바꿀 수 있는지 알아 보는 것입니다. 스레드는 스타 워즈 영화의 적절한 시청 순서와 같은 평범한 주제부터 인종주의, 정치, 총기 규제 및 종교와 같은 문제에 대한 진지한 토론에 이르기까지 다양합니다.

    하위 뷰에는 토론에 의한 논쟁을 불러 일으키고 디자인에 의한 논쟁을 불러 일으키는 대화를 시작하고 중재하기위한 고유 한 세부 규칙 세트가 있기 때문에 My View 변경은 Perspective의 흥미로운 테스트 베드입니다. Reddit에서 u / Snorrrlax를 방문한 Kal Turnbull은 r / changemyview의 창립자이자 중재자입니다. Turnbull은 PCMag에 Perspective API가 서브의 규칙 2와 특히 잘 맞아 기본적으로 무례하거나 적대적인 말을 금지한다고 말했다.

    스코틀랜드에 기반을 둔 턴불 (Turnbull)은“이것은 단순한 규칙처럼 들리지만 많은 뉘앙스가있다. “언어에 대해 영리하지 않고이 규칙을 자동화하는 것은 어렵습니다. Reddit은 플래그 지정을위한 필터와 키워드를 설정할 수있는 AutoModerator라는 것을 제공합니다. 그러나 오탐이 너무 많아서 누군가를 모욕하지 않고 나쁜 말을 할 수 있고 나쁜 말을 사용하지 않고 누군가를 모욕 할 수 있기 때문에 잡기가 매우 어려울 수 있습니다.”

    Jigsaw는 2018 년 3 월 Turnbull에 손을 뻗었습니다. 공동 작업은 Rule 2에서 시작되었지만 곧 다른 규칙에 대한 Perspective 모델도 구축했습니다. 오픈 소스 Perspective API의 완전한 통합이 아니라 중재자가 지정된 독성 임계 값보다 높은 점수를 기록하도록하는 Reddit 봇입니다.

    지난 6 년 동안 Turnbull과 다른 모드는 AutoModerator 보고서 (플래그 된 키워드) 및 사용자 보고서 대기열에서이 모든 작업을 수동으로 수행했습니다. Jigsaw는 브라우저 확장을 통해 추적 한 중재자의 수년간의 규칙 위반 메모를 사용했으며 Perspective의 기존 독성 모델과 결합 된 데이터를 기반으로 Perspective 모델을 작성했습니다. 2018 년 내내 CMV 모드는 과도한 오 탐지와 같은 문제에 대한 피드백을 제공했으며 Jigsaw는 더 많은 CMV 규칙을 계속 모델링하면서 채점 임계 값을 조정했습니다.

    온라인 토론의 복잡한 판단

    Perspective 봇은 Reddit 중재자 인터페이스에 통합되었습니다.

    하위 조직의 모든 규칙 조정에 대해 관점이 적용되는 것은 아닙니다. 더 복잡하거나 추상적 인 규칙 중 일부는 여전히 이런 종류의 ML이 이해할 수있는 범위를 벗어납니다.

    예를 들어, 규칙 4는 하위의 델타 포인트 시스템을 제어하는 ​​반면, 규칙 B는 사용자가 악마의 옹호자 역할을하거나 "비누 축"게시물을 사용하지 못하게합니다. 이와 같은 미묘한 조정은 누군가가 진정한 이유를 주장하는지 또는 단순히 트롤을 주장하는지 식별하기 위해 상황에 맞는 데이터와 일반적인 인간 이해가 필요합니다.

    가까운 장래에는 여전히 인간 개조가 필요합니다. 이러한보다 복잡한 판단 시나리오는 CMV 중재자가 AI 모델링에서 크랙을 발견하기 시작한 곳이며, 보다 영리한 자동화로이 모든 것이 확장 가능한지 여부를 결정할 수 있습니다.

    "이것이 너무 복잡한 이유는 원래 게시물에 대한 우리의 판단과 전체 대화에 대한 상호 작용이 결합되어 있기 때문이라고 생각합니다. 따라서 모델을 유발하는 것은 단지 한 가지 의견이 아닙니다."라고 Turnbull은 말했습니다. "논쟁이 앞뒤로 진행되고 있고 마지막에 '감사합니다'또는 인정이라는 말이 있다면, 우리는 규칙이 실에서 일찍 깨졌을 때에도 그것을 놓아주었습니다. 또는 맥락에서 경쾌한 농담 무례한 것처럼 보일 수 있습니다. 아주 좋은 인간적인 일이며 봇이 아직 얻지 못한 것입니다."

    Adams는 팀이 다른 여러 사람으로부터 액세스 요청을 받았지만 Change My View는 현재 중재를 위해 Perspective ML 모델을 적극적으로 사용하는 유일한 하위 레딧입니다. CMV의 특정 규칙 세트는 이상적인 테스트 사례가되었지만 Perspective 모델은 가변적입니다. 개별 하위 조직은 커뮤니티 지침에 맞게 스코어링 알고리즘을 사용자 정의 할 수 있습니다.

    Turnbull의 다음 단계는 커뮤니티가 CMV를 능가하고 있기 때문에 Reddit에서 CMV를 제거하는 것이라고 그는 말했다. 지난 6 개월 동안 중재자의 새로 형성된 스타트 업은 Reddit의 모드 인터페이스 및 봇이 제공 할 수있는 것보다 더 깊은 기능을 갖춘 전용 사이트에서 Jigsaw와 협력하고 있습니다.

    이 프로젝트는 아직 알파 테스트 중이지만 Turnbull은 사용자가 규칙을 위반할 수있는 주석, 중재자에게 더 많은 컨텍스트를 제공하는 기본보고 및 의사 결정을위한 기록 데이터를 입력 할 때 사전 경고와 같은 기능에 대해 이야기했습니다. Turnbull은 하위 레딧을 종료하거나 마이그레이션 할 계획이 없다고 강조했지만 새 실험에 흥미가 있습니다.

  • 모든 의견은 인쇄에 적합

    요일에 따라 New York Times의 웹 사이트는 12, 000 개에서 18, 000 개가 넘는 의견을 제공합니다. 2017 년 중반까지, 모든 의견을 읽고 승인 여부를 결정한 풀 타임 커뮤니티 관리 직원이이 논문의 의견 섹션을 검토했습니다.

    이번 달까지 Times 의 커뮤니티 편집자 인 Bassey Etim은 커뮤니티 데스크에서 10 년을 보냈으며 2014 년부터 편집자였습니다. 평일이되자 팀원들에게는 의견 이야기에 대한 의견을 주관하는 사람이 몇 명있을 수 있습니다. 뉴스 기사를 다루었습니다. 스프레드 시트는 서로 다른 책임을 분담하고 추적했지만 약 12 ​​명으로 구성된 팀은 현재 주요 뉴스에 따라 지속적으로 재 지정되거나 이동되었습니다. 그들은 또한 잠재적 인 이야기 사료에 대한 의견에서 기자에게 답답을 제공했다.

    결국 이것은 12 명 이상의 인간이 처리 할 수 ​​있다는 것이 분명해졌습니다. 팀이 조정할 수있는 최대 의견 수에 도달 한 후 스토리의 댓글 섹션을 닫아야합니다.

    신문의 독자 개발 그룹은 이미 기본적이고 명백한 의견 승인을 위해 기계 학습을 실험하고 있었지만 Etim은 특히 똑똑하거나 사용자 정의 할 수는 없다고 말했다. The Times 는 2016 년 9 월에 Jigsaw와의 파트너십을 처음 발표했습니다. 그 이후로, 의견 섹션은 모든 스토리의 10 % 미만에서 현재 30 %로 확대되어 등반했습니다.

    Jigsaw의 관점에서 인큐베이터는 프로세스를 세분화하는 데 도움을 줄 수있는 전문가가 검토하여 하루에 수백만 개의 댓글에서 Perspective 익명 데이터를 제공 할 수있는 기회를 보았습니다. 익명의 ML 교육 데이터와 교환하기 위해 Jigsaw와 Times 는 2017 년 6 월에 출시 된 중재자라는 플랫폼을 구축하기 위해 협력했습니다.

  • 내부 중재자, NYT 주석 인터페이스

    ( 뉴욕 타임즈 의 이미지 제공 )

    중재자는 Perspective의 모델을 2007 년으로 돌아가는 1600 만 개 이상의 익명으로 처리 된 Times 의견과 결합합니다.

    커뮤니티 팀이 중재자 인터페이스에서 실제로 보는 것은 대화 형 히스토그램 차트가있는 대시 보드이며 특정 임계 값 이상으로 주석 분석을 시각화합니다. 예를 들어 슬라이더를 앞뒤로 드래그하면 0 ~ 20 %의 요약 점수만으로 모든 주석을 자동으로 승인 할 수 있습니다. 이는 주석의 음란, 독성 및 거부 가능성에 대한 조합을 기반으로합니다. Perspective의 모델링을 계속 개선하기 위해 아래에 주석을 승인 또는 거부하거나, 지연 시키거나, 주석을 달 수있는 빠른 조정 단추가 있습니다.

    Etim은 "웹 사이트의 각 섹션마다 들어오는 의견과 Perspective가 의견을 태그하는 방식을 분석했습니다. 우리는 공개 Perspective 모델과 New York Times 고유의 모델을 모두 사용했습니다"라고 말합니다. "각 섹션의 의견을 분석하고 우리가 편하게 말할 수있는 컷오프 지점을 찾으려고 노력할 것입니다. '좋습니다. 예를 들어, 외설물과 같은 특정 독성 태그를 사용하여이 확률보다 높은 모든 것을 승인 할 것입니다."

    Times 가 더 많은 이야기에 대한 의견을 제시하고 궁극적으로 모델이 사이트의 다른 섹션에 대한 의견을 필터링하고 승인하는 방식을 사용자 정의하기 위해 기계 학습이 비교적 적은 비율의 의견 (약 25 % 정도)을 승인하고 있다고 Etim은 말합니다. 모델은 의견 만 승인합니다. 거부는 여전히 전적으로 인간 중재자에 의해 처리됩니다.

    그 수동 주석 컷오프가 사라졌습니다. Etim은 일반적으로 온라인에 게시 된 후 24 시간이지나거나 기사가 인쇄 된 다음날에 기사에 대한 의견이 마감된다고 말했다.

    '우리는 당신을 기계로 대체하지 않습니다'

    다음 단계는 시스템에 더 많은 기능을 구축하여 중재자가 먼저 살펴야 할 의견의 우선 순위를 정하는 데 도움이됩니다. 늘 수동 프로세스였던 것을 자동화하면 중재자가 기자와 적극적으로 의견을 처리하는 데 시간을 할애 할 수있었습니다. 의견이 후속보고 및 추가 기사로 이어지는 피드백 루프를 만들었습니다. 더 많은 저널리즘을 만들기 위해 리소스를 저장하고 재 할당 할 수 있습니다.

    Etim은 "중재자와 원근법은 독자의 관심사에 대해 Times 를 훨씬 더 반응 적으로 만들었습니다. 우리는 스스로 이야기를 작성하거나 기자와 협력하여 이야기를 알아낼 수 있기 때문입니다."라고 Etim은 말했습니다. "이 프로젝트의 멋진 점은 우리가 아무도 해고하지 않았다는 것입니다. 우리는 당신을 기계로 대체하지 않습니다. 우리는 단순히 우리가 더 효율적으로 인간을 사용하고 정말 어려운 결정을 내릴뿐입니다."

    이 논문은 다른 출판물과 협력하여 다른 산업계가 이러한 종류의 기술을 구현할 수 있도록 도와줍니다. 자원이 한정된 지역 뉴스 매체가 대규모 전담 직원없이 의견 섹션을 유지하고 Times 처럼 의견을 사용하여 잠재 고객을 찾고 풀뿌리 저널리즘을 촉진 할 수 있습니다.

    그 결과 인공 지능 보조제를 농부에게 기계적인 쟁기 대 스페이드를주는 것으로 비유했다. 쟁기로 작업을 훨씬 잘 할 수 있습니다.

    그는 "원근법이 올바른 방식으로 발전 할 수 있다면, 소규모 아울렛에 대해 반복 가능한 최소한의 지침을 만들 수 있기를 바란다"고 말했다. "긴 게임이지만 우리는 이미 독자 경험의 일부가 될 수있는 많은 기반을 마련했습니다. 그렇다면이 지역 신문은 다시 의견을 제시하고 주요 소셜 플레이어에 대해 약간의 우두머리를 세울 수 있습니다."

    심연으로 비명

    이 시점에서 우리 대부분은 사람들이 의견을 표명하기 위해 소셜 미디어를 공격하거나 괴롭히는 것을 보았습니다. 그런 종류의 일에 번성하는 트롤을 제외하고는 아무도 그들에게 일어나기를 원하지 않습니다. 그리고 우리는 이성적인 주장을 듣지 않는 낯선 사람에게 소리 치는 것이 우리 시간의 소중한 사용이 아니라는 것을 배웠습니다.

    Perspective는 이러한 역 동성을 극복하려고 노력하고 있지만 CJ Adams는 더 넓은 목표는 데이터, 연구 및 새로운 오픈 소스 UX 모델을 게시하여 새로운 대화 구조, 즉 어려운 작업을 만드는 것이라고 밝혔다. 인터넷을 사람들의 시간 가치가있는 건강한 장소로 만든다는 것은 뉴스 코멘트 섹션과 하위 구성 요소 이외의 시스템을 확장하는 것을 의미합니다. 궁극적으로 AI 도구는 일상적인 디지털 상호 작용을 지배하는 거대한 소셜 앱과 네트워크를 처리 할 수 ​​있어야합니다.

    Facebook, Twitter 및 기타 사회적 거인이 내부적으로 수행하는 작업을 제외하고이를 달성하는 가장 직접적인 방법은 기술을 중재자에서 사용자 자신에게 전달하는 것입니다. Adams는 어떻게 될지에 대한 아이디어를 얻기 위해 산호 프로젝트를 지적했습니다.

    Coral Project는 처음에 Mozilla Foundation, New York Times 및 Washington Post 간의 협력으로 설립되었습니다 . Coral은 온라인 토론을 장려하고 의견 섹션을 종료하는 대안을 뉴스 사이트에 제공하기 위해 Talk 플랫폼과 같은 오픈 소스 도구를 구축하고 있습니다. Talk는 현재 Post , New York Magazine, The Wall Street Journal 및 The Intercept를 포함하여 거의 50 명의 온라인 게시자를위한 플랫폼을 제공합니다.

    이달 초 Vox Media는 Mozilla Foundation에서 Coral Project를 인수했습니다. 컨텐츠 관리 및 스토리 텔링 플랫폼 인 Chorus에 "깊게 통합"할 계획입니다.

    Perspective는 동일한 기본 기술 (ML 기반 독성 점수 및 임계 값)을 사용하여 사용자가 입력하는대로 사전 제안을 제공하는 Coral Project 용 플러그인을 가지고 있다고 Adams는 말했습니다. 따라서 사용자가 악용 또는 괴롭힘으로 신고 된 문구가 포함 된 댓글을 작성하는 경우 "이 글을 게시하기 전에 커뮤니티 가이드 라인을 기억하십시오"또는 "이 댓글의 언어가 Google을 위반할 수 있습니다"라는 알림이 사용자에게 표시 될 수 있습니다. 커뮤니티 가이드. 중재 팀이 곧 검토 할 것입니다."

    아담스는“이 작은 넛지 (Nudge)는 사람들이 생각하는 데 두 번째로 걸리는 데 도움이 될 수 있지만, 아무도 막지 못하고있다”고 말했다. "토론을 멈추지 않습니다."

    비디오 게임 채팅 및 스트리밍 플랫폼이 남용과 괴롭힘을 막기 위해 통합 한 메커니즘입니다. 트위터 사용자도 그러한 시스템을 통해 혜택을 볼 수 있습니다.

    MIT 연구 과학자 앤드류 립만 (Andrew Lippmann)이 PCMag의 미래 문제에서 제기 한 아이디어에 대해 이야기합니다. 이 개념은 온라인 토론에도 적용됩니다. Lippmann은 우리는 즉시 진술의 도달 범위를 기하 급수적으로 증폭시킬 수있는 마찰없는 통신 시스템을 만들었지 만 때로는 약간의 마찰이 좋은 것일 수 있다고 말했다.

    관점은 AI를 담요 솔루션으로 사용하는 것이 아닙니다. ML 모델을 사람이 자신의 경험을 정리할 수 있도록 도구로 만들어주는 방법입니다. 그러나 한 가지 반론은 사람들이 좋아하지 않는 온라인 소음을보다 쉽게 ​​찾아 낼 수있게한다면 인터넷은 기존보다 훨씬 더 많은 반향 실이 될 것입니다.

    Perspective와 같은 도구가 궁극적으로이를 악화시킬 수 있는지에 대한 질문에 Adams는 온라인 에코 챔버가 존재한다고 생각합니다. 사람들이 의미에 동의하지 않는 경우 토론을 진행할 메커니즘이 없기 때문입니다.

    "최소한 저항의 길은 '이 사람들은 싸우고있다. 그들 자신의 구석에서 스스로 동의하도록하자. 사람들이 스스로를 사일로하게하자"고 그는 말했다. "사람들은 다른 사람들을 방에서 외치거나 토론을 종료 할 수 있습니다. Perspective가 세 번째 옵션을 만들길 원합니다."

    Adams는 샘플 시나리오를 제시했습니다. 1, 000 명 정도의 방에 물어 보면 "오늘 얼마나 많은 사람들이 당신이 정말로 염려하고있는 것을 읽습니까?" 대부분의 인터넷 사용자는 기사, 트윗, 게시물 또는 온라인에서 읽은 내용을 가리 킵니다. 그러나 만약 당신이 그들에게 다음 질문을한다면, "여러분 중 몇 명이 그것에 대해 의견을 말하거나 토론 할 가치가 있다고 생각하십니까?" 방에있는 모든 손이 내려갑니다.

    "우리 중 많은 사람들에게 그것은 노력의 가치가 없습니다. 우리가 지금 가지고있는 토론의 구조는 단지 책임이라는 것을 의미합니다. 현재 합리적인 생각이나 공유하고 싶은 것이 있다면, 대부분의 사람들은 아담스가 말했다. "그 방에있을 수있는 그 1, 000 명의 사람들 중, 당신은 토론에 소수의 대표자만을 가지고 있습니다. 10 명이라고합시다. 저는 다른 990이 다시 토론에 참여할 수있는 구조를 만들 수 있다는 깊은 믿음을 가지고 있습니다. "그들의 시간 가치가있는 방식으로 그것을 수행합니다."

구글의 퍼즐이 인터넷 해독을 시도하는 방법