Los empleados de Google escuchan el 0,2% del conversaciones de Google Assitant para mejorar su asistente.
Los empleados de Google escuchan el 0,2% del conversaciones de Google Assitant para mejorar su asistente.

Los empleados de Google escuchan el 0,2% del conversaciones de Google Assitant para mejorar su asistente.

Google admitió este jueves que «expertos del lenguaje» contratados por la firma escuchan aproximadamente el 0,2 % de las conversaciones que los usuarios mantienen con su asistente virtual, lo que implica que una parte de esas interacciones no son tan privadas como nos creíamos, pero que solo escuchan cuando activas el asistente con Ok (hey) Google.

Los smartspeakers o altavoces inteligente son unos de los gadget tecnológicos más de moda. Sirven para escuchar la Radio, ponerte recordatorios, hacer preguntas. Los más avanzados son Alexa y Google Assitant. Pero para mejorar la inteligencia artificial, hay gente que revisa algunos audios para mejorar el sistema.

Lo normal es que las empresas que gestionan asistentes virtuales como Amazon, Samsung y Apple, además de Google, es que las conversaciones entre un usuario y su asistente las escuchar un ordenador (su inteligencia artificial), es decir, que los únicos que «escuchan» al usuario son programas y que sólo deben escuchar cuando escucha la palabra de activación como Ok(hey) Google o Alexa.

En abril, cuando salió a la luz que miles de empleados del gigante estadounidense de Internet Amazon escuchan las grabaciones que los altavoces inteligentes Amazon Echo a millones de usuarios para mejorar el servicio.

Ahora, Google ha admitido el 11 de julio de que el 0,2% de estas conversaciones son escuchadas por seres humanos para, aseguran, mejorar la calidad del servicio, arroja luz sobre una práctica que las empresas por lo general evitan publicitar, aunque es conocido dentro de la industria que en menor o mayor medida, es algo habitual.

La revelación llegó de la mano del responsable de producto de búsquedas de la compañía californiana David Monsees, quien publicó una entrada en el blog oficial de Google como respuesta a una información aparecida ayer en la televisión belga VRT NWS, que pudo acceder a alrededor de un millar de grabaciones de individuos anónimos.

«Nos centramos en crear productos que funcionen para todos, y como parte de esto, invertimos importantes recursos para garantizar que nuestra tecnología de voz funcione para una amplia variedad de idiomas, acentos y dialectos. Esto permite que productos como el Asistente de Google entiendan su solicitud, ya sea que esté hablando inglés o hindi.» según David Monsees

Las grabaciones fueron facilitadas a la televisión belga en lengua neerlandesa por uno de los «expertos» que Google había contratado en ese país para escuchar segmentos de las conversaciones y «comprender así las particularidades y acentos de cada idioma en específico» pero esto es una violación de la política de privacidad de Google. Nunca debieron hacerse publicas. La firma, que ya ha anunciado que «tomará acciones» por la filtración al considerarla una «violación» de sus políticas de seguridad de datos.

En concreto, la firma de Mountain View (California, EE UU) cifró el porcentaje de interacciones analizadas por humanos en el 0,2% y garantizó que estos fragmentos no van asociados a las cuentas de los usuarios y que a los expertos se les dice que no transcriban sonidos o conversaciones de fondo que no vayan dirigidas a Google.

Normalmente son que usualmente fueron habladas conscientemente al asistente. Pero a menudo los empleados también escuchan cosas que se registraron de manera inconsciente, a veces con información confidencial. La televisión fue capaz de identificar direcciones o nombres, en las grabaciones, lo que les permitió ponerse en contacto con las personas que confirmaron su voz.

¿Por qué Google trascribe algunos audios

Google está interesado en la forma en que dices algo, no en lo que dices. El sistema informático de Google consiste en algoritmos inteligentes de auto-aprendizaje. Para entender las peculiaridades sutiles y locas del lenguaje humano, a menudo no es lo suficientemente inteligente y lo entrenan personas para que cada vez sea más preciso..

Si el motor de búsqueda no puede procesar correctamente un comando de voz, este comando se manda  en una herramienta de Google en línea:  Crowdsource . Quien sea curioso: cualquiera puede usar  esta herramienta  para ayudar a Google (gratis) a describir imágenes y expresiones faciales, entre otras cosas.

¿Cómo mejora Google el asistente para su altavoz Home o para sus móviles Android?

Google contrata a profesionales para ese trabajo. Si inician sesión en una parte segura de la herramienta, verán una bandeja de entrada los audios que deben procesar. Esta forma de trabajar hace que algunas conversaciones sean escuchadas para mejorar el sistema.

El reconocimiento de voz, en gran parte se ha escrito de antemano con la API de Google Speech to Text. Los empleados deben escuchar con atención para describir el fragmento lo mejor posible. ¿Puedes escuchar una voz femenina o masculina o es un niño? ¿Y qué se dice? El motor de búsqueda aprende constantemente cómo responder mejor a los comandos en el futuro.

Las grabaciones realizadas con un altavoz de Google Home suelen ser impecables. Las grabaciones realizadas con un teléfono inteligente, a través de la aplicación, tienen una calidad de teléfono. peor en ambas se busca mejorar el sistema.

Los revisores de Google podían escuchar las conversaciones y los ruidos de fondo de los usuarios del Asistente y sus altavoces inteligentes Home, incluyendo información personal como sus nombres o direcciones, y también de que estas conversaciones eran grabadas y almacenadas.

¿Es anónimo?

El hecho de que los empleados de Google o subcontrtatas puedan escuchar tales grabaciones genera dudas con respecto a la privacidad. Google para evitar que los empleados sepan a quién están escuchando no lleva la información del usuario asociada. Pero que pasa con los datos personales que hay en el audio.

«Aplicamos una amplia gama de medidas de seguridad para proteger la privacidad del usuario durante todo el proceso de revisión. Los expertos en idiomas solo revisan alrededor del 0.2 por ciento de todos los fragmentos de audio. Los fragmentos de audio no se asocian con las cuentas de usuario como parte del proceso de revisión, y los revisores están dirigidos a no transcribir conversaciones en segundo plano u otros ruidos, y solo a transcribir fragmentos de código dirigidos a Google. » según David Monsees

También han aclarado que el Asistente de Google solamente envía datos de audio a los servidores de la empresa tras detectar el comando de activación ‘Hey, Google’.

Además Google proporciona herramientas para administrar y controlar los datos almacenados en su cuenta. Puedes desactivar por completo el almacenamiento de datos de audio en su cuenta de Google, o elegir eliminar automáticamente los datos cada 3 meses o 18 meses.

Al final los usuarios queremos software cada vez mejores, pero para que eso suceda hay que entrenarlos. En la era de Internet la privacidad absoluta ya no existe.

Te interesa

El incremento del valor de los Bitcoins provoca un repunte en la ciberdelincuencia basada en criptomonedas

El incremento del valor de los Bitcoins provoca un repunte en la ciberdelincuencia basada en criptomonedas

El incremento del valor de los Bitcoins provoca un repunte en la ciberdelincuencia basada en …

Últimas noticias de Frikipandi.com

Las noticias se actualizan cada 15 minutos.