앞으로 생각 구글, 음성 인식, 상황 인식

구글, 음성 인식, 상황 인식

비디오: [우리 시대 기억과 공간] 한여름 방구석 여행기② : 독일 (십월 2024)

비디오: [우리 시대 기억과 공간] 한여름 방구석 여행기② : 독일 (십월 2024)
Anonim

어제 어느 곳에서나 안드로이드를 출시하려는 Google의 계획에 대해 들었지만 실제로 눈에 띄는 점은 회사가 제품을 더 멀리 옮기기 위해 음성 및 상황 인식에 얼마나 크게 의존하고 있는지였습니다. 둘 다 Google과 다른 사람들이 이전에 논의한 주제이지만, 현재와 가까운 미래에 이러한 기술에 대한 Google의 특정 용도의 많은 수에 깊은 인상을 받았습니다. 그것은 회사가 두 분야에서 큰 진전을 이루었다 고 제안합니다.

음성 인식은 수년 전부터 사용되어 왔으며 스마트 폰에서는 Apple의 Siri부터 Google Now, 그리고 가장 최근에는 Microsoft Cortana와 같은 다양한 개인 비서 경험에서 없어서는 안될 부분이되었습니다.

어제 구글 I / O 기조 연설에서 구글의 안드로이드, 크롬, 앱 담당 수석 부사장 선 다르 피 차이 (Sundar Pichai)는“우리는 세계에서 가장 진보 된 음성 인식 엔진을 구축하고있다. 그리고 다른 사람들은 동의하지 않을 수 있지만, 회사는 새로운 사용 사례에서 많은 음성 데모를 보여주었습니다.

회사는 Android Auto의 경우 내비게이션, 통신 및 음악 제어와 같은 음성 지원에 대해 이야기했습니다. 이것은 산만 운전의 세계에서 확실히 의미가 있습니다. 자동차의 음성 인식은 새로운 것이 아닙니다. Microsoft와 Ford는 2007 년에 Ford Sync 시스템을 다시 도입했습니다. 그러나 Google의 구현은 상당히 좋아 보였습니다.

이 외에도 음성 인식은 곧 출시 될 LG G Watch 및 Samsung Gear Live 스마트 워치와 같은 Android Wear 장치의 일부입니다. 예를 들어 Google은 음성 명령을 사용하여 음악을 재생하거나 알람을 설정하는 방법을 시연했습니다. Google은 Android TV에서 음성을 사용하여 동영상 또는 관련 콘텐츠를 검색하는 방법을 시연했습니다. (아마존은 Fire TV에서도 비슷한 기능을 선전하고 있습니다.)

그러나 여러면에서 문맥 메시지는 훨씬 더 흥미로 웠습니다.

Pichai는 "우리는 상황에 따라 모든 것을 상황에 맞게 인식하고있다"고 말했다. 집에서는 오락에 집중할 수 있으며 사무실에서는 업무 관련 정보를 원합니다. "우리는 올바른 정보를 적시에 당신에게 가져오고 싶다"고 말했다.

예를 들어, Android 엔지니어링 디렉터 (아래) 인 David Singleton은 일반 스마트 폰 사용자가 하루에 125 번 휴대 전화를 확인하는 방법과 Android Wear 시계가 관심있는 것을 보여줄 수있는 방법에 대해 이야기했습니다. 맥락에서. 특히, 한 데모는 집에 도착했을 때 사용자에게 패키지를 확인하도록 상기시켜줍니다. 그리고 시스템은 그가 도착했을 때를 이해하면서 그렇게했습니다. 전반적으로, 그는 상황 정보 (예: 비행 상태, 탑승권 및 여행자의 날씨 등)를 보여주는 데 집중했습니다. 그는 개발자들에게 새로운 Android Wear SDK를 통해 그러한 기기를위한 "눈에 잘 띄고 상황에 맞는 앱"을 구축 할 수있을 것이라고 말했다.

Singleton은 최고의 웨어러블 앱이 사용자의 상황에 반응한다고 말했다. 예를 들어, 그는 이전에 피자를 주문했을 때를 기억하고 일주일 후 같은 시간에 주문을 반복 할 것을 제안하며 앱이 집 주소를 알고 있음을 전화로 Eat 24 앱의 데모를 보여주었습니다.

음성 제어, 컨텍스트 및 전화와 웨어러블 간의 원활한 연결 개념을 결합하면 몇 가지 흥미로운 시나리오를 만들 수 있습니다. 싱글턴은 구글이 안드로이드웨어에 몇 가지 음성 명령을 추가했으며 앞으로 몇 달 안에 더 많은 음성 명령을 추가 할 것이라고 말했다. 예를 들어, 그는 Android Wear 기기에서 Lyft 운송 서비스 응용 프로그램을 시연했으며 사용자는 "자동차를 불러주세요"라고 말하면 정확한 위치로 주문할 수 있습니다.

이러한 맥락을 제공하기 위해 Google은 귀하의 현재 위치와 활동을 더 잘 이해해야합니다. 이 정보의 대부분은 이미 스마트 폰에 있습니다. 오늘날의 전화는 GPS 덕분에 어디에 있는지 알고 있으며, Google Now를 사용하는 경우 Google은 이미 집과 사무실의 위치를 ​​알고 있으므로 길과 날씨를 가장 잘 알 수 있습니다. (이것이 오늘날 항상 완벽하게 작동하는 것은 아니지만 올바른 방향으로 움직이고 있습니다.)

그러나 Google은 더 많은 것을 알고 싶어합니다. 어제 기조 연설에서는 나오지 않았지만 구글의 Nest Labs (스마트 서모 스탯 및 연기 감지기)는 최근 더 많은 정보를 다른 제품과 통합 할 개발자 플랫폼을 발표했다. 예를 들어, Nest는 Jawbone UP24 밴드가 어떻게 기상 상태에서 방을 난방 또는 냉방하도록 지시 할 수 있는지에 대해 이야기했습니다. 또는 메르세데스 자동차가 온도 조절 장치로 집으로 향하는 방법을 알려주는 방법. Google Now와 이것을 통합한다고 상상하는 것은 어렵지 않습니다. 즉, Google이 집에 있는지 여부를 더 잘 모니터링하고 일정을 더 잘 파악할 수 있습니다. Nest는 방금 Dropcam을 인수하여 Google이 실제로 집 안에 카메라를 가지고 있다는 아이디어를 더 이상 얻지 못했습니다.

물론이 모든 것은 특정 이유로 수행되며 특정 서비스를 제공하기 위해 수행됩니다. 그리고 귀하는 많은 정보 수집을 "거부"할 권리가 있지만, 서비스를 좋아하기 때문에 실제로는 거의 없습니다. 그러나 Google이이 정보를 사용하여 다른 상황 인식 서비스를 제공하고 결국이 정보를 사용하여보다 타겟이 명확한 광고를 판매하려고 시도한다고 상상하기 어렵지 않습니다. 결국 회사는 많은 이익을 얻는 방법입니다. 따라서 회사가 사용자의 상황을 더 잘 이해하려고 할 때만 개인 정보 보호 문제가 어떻게 증가하는지 쉽게 알 수 있습니다.

이 정보를 수집하려는 유일한 사람은 Google이 아닙니다. 마이크로 소프트는 오랫동안 상황을 더 잘 이해하기를 원했다. Xbox One이 항상 명령을들을 수있는 방법도 논란의 여지가 있습니다. 우리는 이것에 대해서도 Apple로부터 더 많이들을 것으로 기대합니다.

그러나 문맥과 음성을 더 잘 이해하는 것은 오랜 시간 동안 컴퓨터 과학의 목표였으며, 이러한 기술이 발전하는 것을 보게되어 기쁩니다. 우리는 개인 정보 보호 문제에 대해 걱정할 필요가 있지만, 이러한 기술은보다 개인적이고 사용하기 쉬운 응용 프로그램에 대한 엄청난 잠재력을 제공합니다.

구글, 음성 인식, 상황 인식