La privacidad como antídoto al miedo a la inteligencia artificial

La IA potencia capacidades humanas, pero requiere regulación ética y transparencia para garantizar privacidad y derechos fundamentales en su desarrollo.

 

A little girl with her finger presses in front of her and bright futuristic graphics appear. Concept of: future, network, technology, security for children.

En estas últimas semanas, raro es el día que no nos encontramos con apocalípticos mensajes acerca de la Inteligencia Artificial (IA). Sin embargo, viene formando parte de nuestra realidad ya desde 1950, cuando en la “prueba de Turing” se retaba a un evaluador a distinguir si una respuesta la había dado una máquina o un humano.

Si bien, si escuchamos pausadamente, podemos comprobar que la IA no tiene como propósito reemplazar a los seres humanos, sino multiplicar exponencialmente sus capacidades.

Y así ha venido ocurriendo a lo largo de las distintas revoluciones industriales, donde todo desarrollo tecnológico ha venido a mejorar lo presente; aunque, también es verdad, que aquella en la que estamos ahora inmersos nos exige severos cambios disruptivos.

  • Como cualquier innovación tecnológica, la IA no es buena ni mala

Efectivamente, depende de cómo la eduquemos y con qué información la alimentemos. La información, a diferencia de otras fuentes de energía, es ilimitada, y el desarrollo y aprendizaje de la IA depende del volumen, variedad y veracidad de la información y la rapidez con la que la engulla ésta. Esto a nivel mundial es un hecho, no una opinión. La diferencia la veremos en el modelo que elijamos en esta carrera en la que nos encontramos.

Vemos tres modelos muy diferentes: el de las compañías tecnológicas multinacionales, mayoritariamente norteamericanas, el modelo uniforme chino y el modelo diverso de la Unión Europea.

Como podemos comprobar a simple vista, el modelo europeo, si bien es el más garantista, se encuentra a años luz de tomar una velocidad de crucero que exige el desarrollo de la IA. Por lo tanto, debemos pensar en otros criterios para decidir a quién ponemos al mando.

Ante el importante reto de regular la IA, la UE está tratando de dar una respuesta unificada y fuerte, a través de sus organismos europeos, como el Supervisor Europeo de Protección de Datos (SEPD) y el Comité Europeo de Protección de Datos (CEPD o EDPB), tratando de evitar dispares y diferentes resoluciones de cada autoridad de control ante un problema común como, por ejemplo, el tratamiento de los datos que realiza el servicio ChatGPT de la empresa estadounidense OpenAI.

Es completamente necesario que tomemos consciencia de la relevancia de dar una respuesta unificada, eficaz y rápida y, a la vez, inspirada en los principios y valores europeos que atesoramos, entre ellos el derecho fundamental a nuestra privacidad.

  • Alimentación con información que no vulnere derechos de propiedad intelectual ni privacidad

Necesitamos una IA que sea alimentada con información que no vulnere derechos de propiedad intelectual ni la privacidad, que sea transparente en sus fuentes, en cómo trata la información, y que garantice la veracidad y el respeto por los derechos humanos.

Como ya comenté, la AI no ha venido para aniquilarnos ni reemplazarnos. Es esencial para acelerar el ritmo de la investigación o en la detección y diagnóstico, para transformar incluso la experiencia de la asistencia médica, recogiendo directamente la sintomatología y signos vitales del paciente, registrándolos en su historial clínico y encontrando un preciso diagnóstico, mientras que el personal médico escucha y empatiza con el paciente y revisa su salud.

Ahora bien, necesitamos enseñar a la AI, en el proceso de aprendizaje y no después, que esta información no puede ser utilizada por el algoritmo que está valorando la idoneidad del usuario para otorgarle o no un seguro médico y/o cualquier decisión que pueda afectar seriamente a esa persona.

Cuando una entidad decida aplicar la IA en sus procesos, necesitamos que antes se realicen los preceptivos análisis de riesgos y evaluaciones de impacto que tendrá sobre los datos personales. Prevenir antes de curar.

  • Transparencia en nuestras actuaciones y educación con ética en el diseño y por defecto de la IA.

Debemos ser transparentes en nuestras actuaciones y educar con ética en el diseño y por defecto de la AI. De esta forma, nos aseguremos de que la IA seguirá con el propósito de cuidarnos. De lo contrario, cuando tenga la IA que tomar decisiones sobre priorizar el destino de los limitados recursos vitales, nos hará el mismo caso que hacemos nosotros a las hormigas cuando vamos caminando por la calle.

El dilema de elegir a quién queremos al mando no es menor. Se trata de elegir entre los modelos de “capitalismo de vigilancia” o “regímenes autoritarios digitales” o apostar por aquella inteligencia consciente, responsable y comprometida con los valores democráticos y nuestra privacidad.

David Muñoz de los Reyes, septiembre 2023

Delegado de Protección de Datos, abogado y socio de RMA.

www.rma.legal