Google admite escuchar el 0,2% de las conversaciones con su asistente virtual

google

Google admitió que un grupo de expertos en lenguaje contratado por la firma escuchó aproximadamente el 0,2% de las conversaciones que los usuarios con su asistente virtual (Asistente de Google). Este comunicado se publicó en respuesta a una información difundida en la televisión VRT NWS, que se puede acceder a cerca de un millar de grabaciones de individuos anónimos .

Según se publicó ese medio, 153 de esos millar de conversaciones fueron grabadas a pesar de que nadie había tenido el orden de activación del asistente virtual («Ok, Google»). Y en esas charlas se pudo escuchar las conversaciones de los usuarios de la vida amorosa, de sus hijos o incluso de la información personal como su domicilio.

La empresa ha explicado en un comunicado que los especialistas en lenguaje escuchan las grabaciones del usuario Asistente de Google para mejorar su comprensión de diferentes idiomas y actos.

Te interesa :  Así se activa la contraseña para los chats de Whatsapp

Más específicamente, Google dijo que sus empleados sólo accede al 0,2% de esas conversaciones y que «no están asociadas con las cuentas de los usuarios». Y, según dicen, esas charlas se oyen para mejorar la calidad del servicio.

Las grabaciones fueron facilitadas a la televisión belga por uno de esos expertos que Google había contratado en ese país. La compañía aseguró que sus equipos están investigando la filtración de estos datos de audio que fueron realizadas por un empleado que «no respetó la política de seguridad de datos» de la empresa. Y añadieron:»Procedemos a un análisis completo de nuestros dispositivos de seguridad para evitar que se vuelva a producir».

Normalmente, el Asistente Google se activa cuando el usuario lo pide,

presionando un botón o diciendo «OK, Google«. Y la empresa indicó que el asistente virtual sólo envía las grabaciones de audio una vez este ha detectado que el usuario está interactuando con él a través de esta palabra clave.

También explicaron que cuentan con varias herramientas para evitar las «activaciones falsas», es decir, que el software interprete un sonido erróneamente como la palabra clave para activarse.

A pesar de esto, VRT publicó, como se mencionó anteriormente, que 153 de esas conversaciones a las que tuvieron acceso, nadie había dado la orden de activación al asistente virtual sino que éste comenzó a grabar tras interpretar, por error, algún sonido de fondo, indicó Infobae.