¿Es eso posible? ¿Los móviles tienen la capacidad de escuchar y procesar sonidos las 24 horas del día? Todo depende de los permisos que activa el propietario del movil para deja escuchar sus conversaciones.
Varios expertos consultados coinciden en que el problema es el mal uso que se hace de la tecnología; el desconocimiento lleva a que se puedan cometer abusos. “No hay que echar la culpa a las tecnológicas, sino formar a los ciudadanos. Entender el lenguaje de Internet es básico y se debería incluir en el programa académico escolar”, señala Carlos Martínez, profesor de Programación de la Universidad Politécnica de Valencia.
El principal problema es, en su opinión, que la mayoría de usuarios; nunca se leen los términos y condiciones de privacidad de las aplicaciones que se instalan en el móvil.
Al descargar una aplicación, el usuario debe dar permiso a los requerimientos que le llegan y aceptar, por ejemplo, que la app acceda a su micrófono, cámara de fotos o geolocalización. «Algunas no necesitan acceder al micro, pero tal vez los desarrolladores se estén adelantando a algún servicio que ofrecerán en el futuro y por eso prefieren solicitar el permiso desde el principio», apunta Bart de Boer, investigador del laboratorio de Inteligencia Artificial de la Universidad Libre de Bruselas. «Una vez que das permiso, no puedes saber si te están escuchando las 24 horas del día», añade.
La falta de transparencia y la complejidad de los textos sobre los términos y condiciones de las aplicaciones es otro de los obstáculos para los propietarios de los móviles. Con la entrada en vigor del nuevo Reglamento General de Protección de Datos (RGPD) el próximo 25 de mayo, diseñado para unificar las leyes de privacidad de toda Europa, las compañías están llamadas a presentar de forma clara sus métodos para recabar los datos personales de los usuarios.
Desde Apple aseguran que uno de sus retos es conseguir que los usuarios entiendan todas las acciones relacionadas con su privacidad. A diferencia de otras compañías, Apple exige a todos los desarrolladores que crean aplicaciones para iOS (su sistema operativo) que ofrezcan tres opciones al propietario del terminal: permitir el acceso al micrófono siempre, nunca o solo cuando la app está abierta y en funcionamiento. Ese último es el punto diferencial, ya que el usuario decide cuándo cerrar la aplicación y, por tanto, todos los accesos a las prestaciones de su móvil. Lo mismo sucede con el acceso a la cámara, localización y otros.
Además de las apps, están los sistemas de reconocimiento de voz, un servicio; lanzado por empresas como Google o Apple que permiten activar búsquedas; de información con solo pronunciar dos palabras: «Ok Google» o «Oye Siri», y a continuación la petición. Por ejemplo, si tienes un Android -sistema operativo de Google– puedes decir “Ok Google, ¿qué temperatura se prevé; para las ocho de la tarde?” y el teléfono te contesta.
Cualquier usuario puede desactivar el almacenamiento de audios y eliminar el histórico de las conversaciones de Google en su movil.
¿Quiere eso decir que el móvil está escuchando las 24 horas; todas tus conversaciones para ser capaz de reconocer las palabras OK Google? No, responde uno de los desarrolladores de Google. «El funcionamiento se basa en machine learning. Es un sistema binario que solo reacciona ante dos estímulos: Ok Google, con el que procesa; la información y la manda a un servidor, y No Ok Google, que es el resto de sonidos, ante; los que el móvil permanece inactivo».
Del mismo modo que cuando se hace una pregunta; por escrito en el buscador del móvil, las que se hacen por voz quedan registradas en el historial de búsquedas. Cualquier usuario puede acceder a su historial en la web myaccount, donde tendrá que seleccionar administrar tu actividad en Google y después actividad de voz y/o audio. “Es importante resaltar que Google no espía ni escucha las conversaciones”, advierten desde la tecnológica. Aún así, siempre es posible desactivar el almacenamiento de audios y eliminar el histórico.
En el caso de Apple, no existe un registro de las búsquedas realizadas; por voz porque Siri no está asociado al ID (cuenta) del usuario. Cada vez que se hace una petición; de información por voz, el móvil genera un código para contactar con los servidores externos. Apple no puede saber qué usuario ha hecho la consulta.
FUENTE / EL PAIS