Junio 13, 2018 05:00 PM
Nadie debería mandar su saliva a una empresa, no sabemos qué harán con esa información
La ganadora del Premio Fronteras del Conocimiento del BBVA ha centrado su carrera en el desarrollo de métodos para hacer segura la transmisión de información electrónica
Shafi Goldwasser (Nueva York, 1958) sabe que las tecnológicas como Google podrían ofrecer sus servicios sin captar los datos personales de los usuarios. Utilizar Google Maps sin que el sistema transmita los datos de geolocalización a la empresa matriz. "No es una cuestión tecnológica, sino de voluntad", afirma. Goldwasser, experta en criptografía del MIT, desarrolló junto a su equipo de investigadores el Multiparty Secure Computation, un método de computación que permite ofrecer resultados sin revelar la información personal. "Las empresas no quieren destinar recursos ni tiempo [a la privacidad] porque la sociedad no lo está exigiendo", critica.
Goldwasser, graduada en Matemáticas y doctora en Ciencias de la Computación por la Universidad de California, Berkeley, visita estos días Madrid para recibir el Premio Fundación BBVA Fronteras del Conocimiento en la categoría de Tecnologías de la Información y la Comunicación por sus contribuciones fundamentales a la criptología moderna", según palabras del jurado, dotado con 100.000 euros.
Sus investigaciones -ha trabajado durante los últimos 35 años en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT- han posibilitado la transmisión segura de información electrónica en diferentes ámbitos, desde el correo electrónico hasta las transacciones financieras. Goldwasser ha sentado las bases de desarrollos como la firma digital, el blockchain o las criptomonedas.
Pregunta. Tras el escándalo de Cambridge Analytica -la filtración masiva de datos de al menos 87 millones de usuarios de Facebook a esa empresa británica-, ¿cómo explicamos a los usuarios que las tecnológicas podrían operar sin la necesidad de usar los datos personales?
Respuesta. A finales de los 80 desarrollé junto a mi equipo un método de computación que analiza todos los datos y saca patrones sin relevar los datos que ha usado para llegar a esas conclusiones. Se trata de calcular a partir del cruce de muchos datos. Pongamos como ejemplo el avión que se perdió en Indonesia. Los gobiernos de los diferentes países tienen satélites y obtienen continuamente imágenes de la Tierra. Si los estados tuviesen la voluntad de cruzar todos los datos obtenidos por esos satélites, podrían averiguar dónde está el avión. Pero no es así porque no quieren compartir la información de, por ejemplo, dónde están sus satélites.
Otro ejemplo es el de los hospitales. Cien pacientes no son suficientes para determinar qué gen es el responsable de la esquizofrenia, pero tal vez 2.000 o 20.000 sí. Por las normativas de protección de datos no pueden compartir esa información, y el protocolo que hemos diseñado permite hacerlo. El Multiparty Secure Computation es un sistema de criptografía que esconde mi estado, mis datos, pero permite ese cruce de información.
P. ¿Cómo podría afectar ese avance a la vida cotidiana de los usuarios?
R. Te vas de viaje y quieres calcular la ruta más rápida con Google Maps. Pero soy un ciudadano concienciado y no quiero que ninguna empresa controle mis movimientos y sepa dónde voy. Técnicamente es posible y nosotros lo hemos demostrado. Pero estos métodos no se están usando. ¿Por qué? Porque la gente no es consciente todavía, los usuarios no están preocupados. A las compañías tecnológicas les frena la inversión que supone desarrollar la arquitectura técnica para usar este sistema, no tanto desde el punto de vista monetario, sino de tiempo.
Hace falta presión por parte de la sociedad para que las compañías fabriquen nuevos dispositivos con estos requisitos de privacidad. Yo he lanzado mi propia startup, Duality Technologies, para llevar toda esa teoría a la práctica; hay que probar lo que hemos diseñado en la vida real. Estamos colaborando con entidades médicas para analizar curvas de comportamiento de los pacientes.
P. ¿Las empresas se resisten por el negocio que supone el almacenamiento de datos para su posible explotación en el futuro?
R. Hubo un proyecto entre Google y Visa para averiguar si los pagos con tarjeta y el consumo de productos eran o no efectivos con el móvil. Tuvieron que colaborar, pero no querían compartir sus datos, así que utilizaron un sistema similar al nuestro. Ahí sí que hubo voluntad de colaboración con este tipo de encriptación.
P. ¿Por qué no queremos ser conscientes del abuso que supone el uso que hacen de nuestros datos?
R. La gente está entusiasmada con las posibilidades que les da la tecnología, hasta el punto de cegarles sobre los peligros. La gente no piensa. Un ejemplo claro de ello son las compañías que analizan tu perfil genético, que están muy de moda en Estados Unidos. Les envías tu saliva y te pueden decir gente con la que podrías estar emparentado o tu ascendencia. Nadie debería escupir en un bote y mandar su saliva a una startup, le estás dando tu información genética a terceros y no sabes lo que harán con ella. Tu información genética no solo habla de tu pasado, sino de tu futuro. No es un pensamiento paranoico, ya hay evidencias. Hay casos de personas a las que se les ha denegado un seguro médico porque se conocen sus riesgos a padecer alguna enfermedad. También te pueden dejar fuera de un proceso de selección para un trabajo. Hay que leer los términos y condiciones.
P. ¿Por qué Estados Unidos es reacio a endurecer la regulación sobre privacidad?
R. A diferencia de Europa, que se rige por su pasado histórico, en Estados Unidos prima el interés comercial. Desde el ámbito de la investigación, hacemos lo que está en nuestras manos. Hace seis mese estuve en el Congreso para hablar de la importancia de la criptografía, de invertir más desde las instituciones públicas. Ahora voy a dirigir un instituto de investigación en Berkeley donde vamos a desarrollar programas sobre privacidad. Queremos atraer a personas de todo el mundo y enseñarles criptografía. No me dedico a la política. ¿Qué más puedo hacer?
P. Igual un buen punto de partida es el desarrollo del ciberderecho. ¿Cuál cree que tendría que ser la prioridad?
R. Antes de usar el machine learning [el aprendizaje automático de las máquinas] y la inteligencia artificial para sustituir a los humanos en la toma de decisiones hay que sentar una regulación. En Estados Unidos ya se están probando estos sistemas en los tribunales para decidir si te dejan salir bajo fianza de la cárcel. Se hace de forma automática teniendo en cuenta patrones delictivos de cientos de personas y cruzando tu información personal para predecir cuál será tu comportamiento, si volverás a delinquir o no. Ahí entran en juego factores discriminatorios, por ejemplo, de raza. Hay que entender las limitaciones de un algoritmo y analizar si son justos con las minorías. La ley debe fijar si se deben usar estos programas para juzgar a los ciudadanos.
P. Como experta en blockchain [una técnica capaz de registrar a un coste mínimo operaciones en multitud de ordenadores, sin que nadie pueda eliminar o modificar lo que ya está anotado], ¿cree que se puede implementar en sectores como la banca sin destruir a sus actuales plantillas?
R. Es más eficiente que tener decenas de oficinas; es un sistema global de transacciones. Se necesitaría otro perfil de trabajadores. Diferentes humanos que entiendan las nuevas reglas del juego. Se traduciría en menos empleados detrás de los cajeros y más matemáticos y expertos en tecnología. La educación es clave. Tienes que ser abierto de mente y formarte. En Internet hay cursos. Ser ágil mentalmente equivale a mantener tu poder de ganar dinero y vivir.
Fuente El País
Publicado por:NOTICIAS DE ÚLTIMA HORA