Blog
8/9/25

La alfabetización digital como gran reto frente a la renuncia a la privacidad en tiempos de digitalización e IA

La digitalización impacta nuestros derechos; la alfabetización digital protege libertad y dignidad frente a la IA.
Federico de Montalvo
Vicerrector de Relaciones Institucionales y Secretario General, Universidad Pontificia Comillas

¿Qué piensa la sociedad sobre el futuro?

¡Descúbrelo aquí!
Icono avanzar flecha Espacio Futuro

Como señaló hace unos años el Comité de Bioética de España, la digitalización no es, en modo alguno, neutra ni ha pretendido serlo desde sus orígenes. Pensar lo contrario, que es neutra, tiene como grave consecuencia pensar que la incidencia de ese entorno digital en la sociedad dependerá enteramente del modo en que los ciudadanos y los poderes públicos hagan uso de él. Al presumir que el entorno digital es inexorable y neutral, se entiende que la adecuada regulación de los derechos individuales en el entorno digital y la educación ciudadana digital garantizarán que ese entorno digital sirva a la libertad e igualdad de los ciudadanos.

Sin embargo, resulta obvio que el entorno digital no es neutral, ni inexorable. Es el resultado de un diseño que persigue unos fines determinados. La arquitectura actual del entorno digital ha sido pensada con dos objetivos: extraer datos y predecir el comportamiento. Los datos, obtenidos a partir de la permanente vigilancia del comportamiento de las personas, son objeto de explotación y convertidos en pronósticos sobre la actuación individual y social. A continuación, esos pronósticos son puestos a disposición del mercado con los más variados fines.

Esta arquitectura digital no es, evidentemente, la única posible. Como la tecnología no es neutral, sino que está valorativamente cargada, la arquitectura actual del entorno digital es resultado de una elección entre distintos modelos de diseño. Básicamente se pueden identificar dos: uno orientado a proveer una valiosa ayuda al ciudadano, sin obtener de él nada a cambio que él no conozca y acepte; y otro que busca extraer el mayor número de datos para predecir e incluso orientar el comportamiento de los ciudadanos, a base de tenerlos permanentemente conectados mediante el poderoso señuelo de un sinnúmero de servicios gratuitos sumamente atractivos.

Ambos diseños se diferencian tanto por el fin (servir al consumidor o aprovecharse de él) como por los métodos (recabar datos con permiso y con límites en el acceso, o recabarlos sin restricción en el acceso). Desafortunadamente, y tras una apasionante pugna que sobre todo se desarrolló en los años noventa del pasado siglo, se impuso el segundo modelo sobre el primero. El entorno digital así configurado ha ido permeando de forma acelerada todos los ámbitos de la actividad humana, incluido, por lo que al objeto de este artículo se refiere, el sanitario. Y así, el entorno digital ya no se limita a predecir nuestro comportamiento; también aspira a diseñarlo. Y a medida que consolida esa aspiración, ya no le basta con automatizar los flujos de información sobre nosotros, sino que se propone automatizarnos a nosotros mismos. Con su ilimitada capacidad para acumular nuestros datos, el entorno digital llega a conocer nuestras preferencias mejor que nosotros, y le resulta enormemente sencillo dar con aquellos pequeños y sutiles empujones (nudges, en inglés) que harán que nos comportemos de la forma más conveniente a los intereses de otros, pudiendo ser utilizado como un instrumento de ingeniería social. Este modelo resulta tan eficaz como insidioso, porque coloniza nuestra capacidad de auto determinación y, sobre todo, cuando actúa sobre un ámbito tan sensible y comprometido como es la salud de las personas.

Así pues, su propósito no ha sido solo el de ofrecer de manera más accesible datos y servicios, sino que ello se ha hecho con el principal propósito de obtener nuestros datos para poder proceder a su uso masivo y a desarrollar los algoritmos que hagan viable la IA. Este propósito ha generado o, mejor dicho, institucionalizado una cultura de la renuncia a la privacidad para poder acceder a los datos y servicios o para, como ocurre con las redes sociales, no quedar al margen del grupo o de la colectividad. Y una sociedad de consumo como la nuestra, en la que los deseos pueden cumplirse inmediatamente a golpe de teclado lo ha acrecentado.

La escasa preocupación de los nativos digitales por su derecho a la intimidad se explica en gran medida porque han sido “dopados” muy tempranamente por las compañías tecnológicas, con aplicaciones que están destinadas justamente a la exhibición pública y a la búsqueda de reconocimiento a través del uso de las redes sociales. Su cultura no tiene nada que ver con la de la Constitución sino con una visión mercantil de sus propios derechos que se activa solamente cuando consideran que el producto que reciben es deficitario. Los derechos se protegen ahora desde la posición de los consumidores. Son facultades instrumentales de los derechos económicos y se garantizan solamente desde la lógica económica. Ya no conectan directamente con la dignidad sino con la inserción del individuo como una pieza más dentro del contexto económico (Balaguer Callejón).

Por ello, considerar que la mejor garantía para afrontar ética y legalmente los retos que nos trae la IA y, en especial, para salvaguardar la dignidad, la privacidad y el uso indebido de datos personales sigue siendo el consentimiento informado, es decir, la autorización expresa o tácita del individuo para la cesión y tratamiento de sus datos supone un verdadero autoengaño. No se trata de excluir del sistema la operatividad de éste, sino evitar caer en el error de considerar que normativizándolo y adaptándolo a estos nuevos retos de la AI resolveremos, en gran parte, los problemas que surgen en relación con nuestros derechos y libertades. Estamos proponiendo incorporar junto al enfoque legal o normativo basado en la regulación de derechos y salvaguardas frente a los nuevos retos de la digitalización, un enfoque educativo. Es decir, regular pero educando.

Resulta harto difícil tratar de imponer la cultura de la privacidad y de la protección de datos personales a través del consentimiento cuando la propia sociedad ha renunciado a ello, no como concepto general o temor social frente a la IA, sino como actitud o conducta diaria.

Y, por ello, parece que el camino es tratar de recuperar o, incluso, crear una nueva cultura que, sin menoscabo delos avances positivos del Big Data y la IA, nos haga conscientes de los valores que están en juego. Habría que construir una narrativa alternativa a la economicista y tecnológica, defendiendo el pluralismo y los valores que han hecho del constitucionalismo y sus derechos y libertades un factor esencial del progreso (Balaguer Callejón).

La propuesta sería la de la alfabetización digital. Paolo Benanti nos dice en su análisis de la “era digital” que existe una necesidad urgente de educación mediática, como transmisión de los conocimientos necesarios para manejar adecuadamente las nuevas tecnologías, no desde una perspectiva tecnológica, las denominadas skills o habilidades en nuestra lengua, sino desde la de los valores y rasgos esenciales de la sociedad y de la persona en juego. Es decir, luchar contra, permítasenos la expresión, el analfabetismo de los derechos y las libertades en la era de la IA.

La UNESCO la ha definido como la capacidad de acceder, gestionar, comprender, integrar, comunicar, evaluar y crear informaciones mediante la utilización segura y pertinente de las tecnologías digitales para el empleo, un trabajo decente y la iniciativa empresarial. Esto incluye competencias como la alfabetización informática, la alfabetización en las TIC, la alfabetización informativa y la educación mediática, que tienen como objetivo empoderar a las personas y, en particular, a los jóvenes, para que adopten una actitud crítica en cuanto a la utilización de las tecnologías de la información y las tecnologías digitales, y para que puedan desarrollar su resiliencia frente a la desinformación, el discurso de odio y el extremismo violento.

La propuesta de alfabetización no aparece mencionada explícitamente en el Reglamento UE de protección de datos, pero sí en el de la IA, el cual dispone, literalmente que “Con el fin de obtener los mayores beneficios de los sistemas de IA, protegiendo al mismo tiempo los derechos fundamentales, la salud y la seguridad, y de posibilitar el control democrático, la alfabetización en materia de IA debe dotar a los proveedores, responsables del despliegue y personas afectadas de los conceptos necesarios para tomar decisiones con conocimiento de causa en relación con los sistemas de IA”, añadiendo, a continuación, que “En el contexto de la aplicación del presente Reglamento, la alfabetización en materia de IA debe proporcionar a todos los agentes pertinentes de la cadena de valor dela IA los conocimientos necesarios para garantizar el cumplimiento adecuado y la correcta ejecución. Además, la puesta en práctica general de medidas de alfabetización en materia de IA y la introducción de acciones de seguimiento adecuadas podrían contribuir a mejorar las condiciones de trabajo y, en última instancia, sostener la consolidación y la senda de innovación de una IA fiable en la Unión. El Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA») debe apoyara la Comisión para promover las herramientas de alfabetización en materia de IA, la sensibilización pública y la comprensión de los beneficios, los riesgos, las salvaguardias, los derechos y las obligaciones en relación con el uso de sistemas de IA. En cooperación con las partes interesadas pertinentes, la Comisión y los Estados miembros deben facilitar la elaboración de códigos de conducta voluntarios para promover la alfabetización en materia de IA entre las personas que se ocupan del desarrollo, el manejo y el uso dela IA” (Considerando20).

Y su artículo 3 define alfabetización digital en los siguientes términos: “«alfabetización en materia de IA»: las capacidades, los conocimientos y la comprensión que permiten a los proveedores, responsables del despliegue y demás personas afectadas, teniendo en cuenta sus respectivos derechos y obligaciones en el contexto del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA y tomar conciencia de las oportunidades y los riesgos que plantea la IA, así como de los perjuicios que puede causar”[1].

Por tanto, alfabetizar es transmitir conocimiento de causa.

Y el concepto sigue siendo mencionado por el citado Reglamento más adelante: “El despliegue de sistemas de IA en el ámbito educativo es importante para fomentar una educación y formación digitales de alta calidad y para que todos los estudiantes y profesores puedan adquirir y compartir las capacidades y competencias digitales necesarias, incluidos la alfabetización mediática, y el pensamiento crítico, para participar activamente en la economía, la sociedad y los procesos democráticos” (Considerando 56).

Recoge, también, una mención expresa a la alfabetización el Reglamento UE del espacio europeo de datos de salud: “Mejorarla alfabetización sanitaria digital de las personas físicas y de los profesionales sanitarios es esencial para la confianza y la seguridad y el uso adecuado de los datos de salud y, por ende, lograr una aplicación satisfactoria del presente Reglamento”.

Y ello, porque “la mejora de la alfabetización sanitaria digital es fundamental para facultar a las personas físicas para que ejerzan un verdadero control sobre sus datos de salud, gestionen activamente su salud y su asistencia, y entiendan las implicaciones de la gestión de tales datos para un uso tanto primario como secundario. Los diferentes grupos demográficos tienen distintos grados de alfabetización digital, lo que puede afectar a la capacidad de las personas físicas para ejercer los derechos de control de sus datos de salud electrónicos”.

Y añade que este proceso de alfabetización debe “prestarse especial atención a las personas con discapacidad ya los grupos vulnerables, incluidas las personas migrantes y las de edad avanzada” (Considerando 89).

Más adelante, en el artículo 84 el mismo Reglamento regula dicha alfabetización, estableciendo que “los Estados miembros promoverán y apoyarán la alfabetización en materia de salud digital y el desarrollo de las competencias y capacidades pertinentes para los pacientes. La Comisión apoyará a los Estados miembros a este respecto. Las campañas o programas desensibilización tendrán por objeto, en particular, informar a los pacientes y al público en general sobre uso primario y secundario en el marco del EEDS, incluidos los derechos que se derivan de él, así como las ventajas, los riesgos y los posibles beneficios del uso primario y secundario para la ciencia y la sociedad”.

Como dijera el Papa Francisco, no vivimos una época de cambios, sino un verdadero cambio de época[2], y ello, en palabras ahora de Paolo Benanti supone que concurren dos fenómenos: el agotamiento de un modelo cultural preexistente con su contenido de creencias sobre la realidad y el hombre, y la aparición de una nueva forma de explicar la realidad y lo humano.

Pues bien, que este cambio de época nonos haga olvidar el valor que ostentan para la paz y convivencia de la sociedad los derechos y libertades.

Y terminamos citando a José Luis Borges, quien escribiera en su breve poema titulado “Eternidades”, incluido en su obra La rosa profunda que

“Solo perduran en el tiempo las cosas

Que no fueron de este tiempo”

Y es que los derechos y libertades no pertenecen a un tiempo que pasó, sino que perduran como lo hace el ser humano y su dignidad.

Referencias

[1]Y vuelve a referirse al concepto el artículo 4 del mismo Reglamento: “Alfabetización en materia de IA. Los proveedores y responsables del despliegue de sistemas de IA adoptarán medidas para garantizar que, en la mayor medida posible, su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto previsto de uso de los sistemas de IA y las personas o los colectivos de personas en que se van a utilizar dichos sistemas”.

[2]Discurso del Papa Francisco a la Curia Romana en ocasión de la presentación de las felicitaciones navideñas. 21 diciembre2019.

Newsletter

Descubre lo que vendrá

¡Recibido, el futuro empieza contigo!
Parece que el futuro no reconoce ese email. ¡Intenta de nuevo!