“Tu asistente inteligente te espía”. ¿Nos fisgonean Siri, Google y Alexa? | Tu Tecnología | El País

¿Nos espían realmente Siri, Alexa o Google Assistant? Seguro que más de una vez se lo ha preguntado, teniendo en cuenta que ya se encuentran en todo tipo de dispositivos (televisores, móviles, altavoces…) que nos acompañan en casa, en el trabajo o que llevamos siempre encima. Tampoco ayuda que en ocasiones, cuando comentamos algo en privado, luego aparezcan anuncios relacionados con lo que hemos dicho al navegar por Internet o que se publiquen noticias sobre que los trabajadores de alguna de las empresas responsables de estos sistemas han accedido a las conversaciones privadas de miles de usuarios.

Por supuesto, y pese a reconocer fallos de seguridad puntuales, Amazon, Google o Apple tranquilizan a sus usuarios y apuestan por la transparencia, dándoles a conocer qué datos recogen y permitiéndoles gestionar en todo momento qué se hace con ellos. Para saber con exactitud qué es lo que realmente escucha cada uno de los principales asistentes, cómo guardan esa información y qué tratamiento se le da, hemos analizado sus términos y condiciones y consultado con las propias firmas.

En el propio dispositivo

Si por algo se caracteriza Apple es por permitir al usuario controlar qué datos se comparten, con qué apps y cómo se manejan en cada caso (tanto las propias como las de terceros), facilitando realizar ajustes en consecuencia. Y nada se comparte con anunciantes. A priori, la firma de la manzana es la más restrictiva con Siri y garantiza que, cada vez que se le pide algo, el audio de las solicitudes no sale del iPhone, iPad o HomePod, salvo que se decida compartirlo voluntariamente.

Eso sí, hay pequeñas diferencias en cuanto a qué se hace con los datos en función de qué aplicación usa el asistente. Por ejemplo, las consultas que se realizan a apps como Notas o Mensajes ni siquiera envían la información a los servidores de Apple; pero sí se hace cuando la petición implica que busque en Internet o se usa la función de dictado, aunque en este caso todo es anónimo: no se asocia ninguna de las consultas con el ID del usuario. En su lugar, se utilizan identificadores aleatorios compuestos por una larga secuencia de letras y números: con Safari y Spotlight este identificador cambia cada 15 minutos, y en Dictado se borran (con todas las transcripciones) al desactivar Siri y volver a activarlo. En este sentido, cabe hacer una puntualización: Apple no asegura que se borren peticiones realizadas hace más de seis meses ni la textualmente “pequeña muestra de peticiones” que se haya podido analizar, puesto que ya no estarán asociadas al identificador aleatorio.

Contacto con los servidores

Google Assistant, por su parte, envía todas las consultas a sus servidores y no se puede configurar lo contrario: es un requisito indispensable para obtener una respuesta. Ahora bien, por defecto, ninguna de estas peticiones se guarda, por lo que es imposible que nadie acceda a las grabaciones ni identifique quién las ha hecho. Pero Google avisa: si se elige que sí se almacenen en la cuenta del usuario, se estará ayudando en primer lugar a que el sistema funcione mejor (revisores especializados analizan el audio para comprobar si se entendió correctamente, por ejemplo); y, en segundo lugar, a personalizar la experiencia en función de la información que tiene Google de cada usuario y de las consultas que ha realizado en el pasado.

Si se ha elegido habilitar esta opción, en el caso de que el asistente se active por error (algo muy común en cualquier servicio de este tipo, como bien saben los usuarios habituales), bastaría con decirle “Hey Google, no te estaba hablando a ti” para que elimine cualquier conversación del registro de actividad. En este sentido, también es posible revisar todas las interacciones y eliminarlas manualmente, programar que se haga de forma automática cada 3, 18 o 36 meses, solicitarle con la voz que desaparezcan todas las conversaciones de la última semana, etc.

Algo similar ocurre con los datos. Aunque Google Assistant no necesita acceder a ellos para funcionar, si se le otorgan los permisos podría avisar si detecta que en la ruta habitual al trabajo hay tráfico (sin necesidad de decirle nada) o saber cuándo es el cumpleaños de uno de los contactos. Lo que sí afirma rotundamente la empresa es que jamás vende las grabaciones de audio ni ninguna otra información personal.

¿Y Alexa?

En Amazon utilizan los datos de sus clientes para personalizar las compras, recomendar listas de reproducción, libros… Y también para personalizar Alexa en función de quién lo está utilizando. Desde su lanzamiento en España, hace casi cinco años, la multinacional ha querido poner el foco en que no hay riesgos para la privacidad y que los usuarios tienen el control de qué información almacena y qué se hace con ella.

Dicho esto, siempre que se utiliza Alexa las peticiones van a la nube y ahí se guardan cifradas. En todo momento se puede consultar qué ha escuchado (y grabado) e, incluso, reproducir un corte y gestionar todas las grabaciones: eliminar algunas, ordenarlas por fecha, en función de quién las haya hecho, en qué dispositivo… Del mismo modo, es posible borrar todas a la vez, programar cuándo debe hacerse o elegir que no se guarden en ningún caso. Todo ello desde la app o directamente con la voz.

Pero, sin duda, una de las funciones del asistente de Amazon que más dudas ha generado en lo que a seguridad se refiere es Drop In: algo parecido a un interfono que facilita que familiares y amigos se comuniquen entre sí a través de sus altavoces inteligentes. ¿Podrían acceder a esta función los ciberdelincuentes para espiar? La respuesta de Amazon es un rotundo no. Para usar esta funcionalidad hay que activarla manualmente y, además, autorizar contacto a contacto quién podría llamar. Y, por supuesto, hay que aceptar la llamada entrante una vez que se produzca.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.