Google admitió este jueves que “expertos del lenguaje” contratados por la firma escuchan más o menos el 0,2% de las conversaciones que los usuarios mantienen con su asistente virtual, lo que implica que parte de esas interactúes no son totalmente privadas.
La asunción frecuente, y lo que de manera frecuente repiten las compañías que administran asistentes virtuales como Amazon, Samsung y Apple, aparte de Google, es que las conversaciones entre un usuario y su asistente son totalmente privadas y que la interacción se genera únicamente a través de inteligencia artificial, esto es, que los únicos que “escuchan” al usuario son robots.

Google se disculpa diciendo que escucha las conversaciones para prosperar la calidad del servicio

No obstante, la admisión este jueves por la parte de Google de que el 0,2% de estas conversaciones son escuchadas por humanos para, aseguran, prosperar la calidad del servicio lanza luz sobre una práctica que las compañías por norma general evitan promocionar, si bien es conocido en la industria que en menor o bien mayor medida, es algo habitual.
La revelación llegó de la mano del responsable de producto de búsquedas de la compañía californiana David Monsees, quien publicó una entrada en el blog oficial de Google como respuesta a una información aparecida ayer en la televisión belga VRT NWS, que pudo acceder a alrededor de un millar de grabaciones de individuos anónimos.

Las grabaciones fueron facilitadas a la televisión belga en lengua neerlandesa por uno de los “expertos” que Google había contratado en ese país para escuchar segmentos de las conversaciones y “comprender así las particularidades y acentos de cada idioma en específico”.

Google Home, el aparato que contiene el asistente virtual
(Google)

La firma, que ya ha anunciado que “tomará acciones” por la filtración al considerarla una “violación” de sus políticas de seguridad de datos, admitió contar con “expertos en todo el mundo” cuya función es escuchar y transcribir “una pequeña parte de los diálogos para ayudarnos a comprender mejor esos idiomas”.

En concreto, la firma de Mountain View (California, EE.UU.) cifró el porcentaje de interacciones analizadas por humanos en el 0,2% y garantizó que estos fragmentos no van asociados a las cuentas de los usuarios y que a los expertos se les dice que no transcriban sonidos o bien conversaciones de fondo que no vayan dirigidas a Google.
Sin embargo, la T.V. belga fue capaz de identificar “direcciones postales y otra información delicada”, en las grabaciones, lo que les permitió ponerse en contacto con las personas cuya voz había sido grabada y confirmar que efectivamente se trataba de ellos. “Una pareja de Waasmunster (Bélgica) reconoció inmediatamente la voz de su hijo y de su nieto”, pusieron como ejemplo desde VRT NWS.

El millar de fragmentos de voz filtrados son en holandés

Google indicó que el asistente virtual sólo les envía las grabaciones de audio una vez este ha detectado que el usuario está interactuando con él tras haber dicho, por ejemplo, “Hey, Google” y que dispone de varias herramientas para evitar las “activaciones falsas”, es decir, que el software interprete un sonido erróneamente como la palabra clave para activarse.
Pese a ello, VRT NWS publicó que del cerca de millar de fragmentos de voz a los que tuvo acceso (todos ellos en lengua neerlandesa), 153 eran conversaciones en las que nadie dio la orden de activación al asistente virtual, sino que este interpretó equivocadamente un sonido. Entre otras muchas, el medio belga aseguró haber escuchado conversaciones en cama, entre progenitores y sus hijos, llamadas profesionales, discusiones y escenas tanto de sexo como de violencia.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *