ESI UCLM

web uclm

繁體中文 ZH-TW English EN Français FR Deutsch DE Italiano IT Español ES Türkçe TR
HomeOpiniónHacia una Inteligencia Artificial transparente y responsable

Hacia una Inteligencia Artificial transparente y responsable

Javier Albusac, profesor titular de universidad en la Escuela Superior de Informática de Ciudad Real. Universidad de Castilla-La Mancha.

Hacia una Inteligencia Artificial transparente y responsable

Por Javier Albusac (Profesor Titular de Universidad).

No podemos negarlo, nos dirigimos hacia una sociedad cada vez más digitalizada en la que la Inteligencia Artificial (IA) será una parte integral de nuestro tejido social y cultural. Ante esta realidad, urgen reflexiones sobre cómo esta tecnología afectará a nuestras vidas, y si su uso será justo y beneficioso para todos. Si la Revolución Industrial cambió la forma en la que producimos y consumimos, y la Revolución Digital transformó cómo nos comunicamos y accedemos a la información, la Revolución de la Inteligencia Artificial nos llevará a una era en la que trabajaremos y tomaremos decisiones de maneras completamente nuevas.

Revolución de la IA

Explosión de la IA y planteamiento de cuestiones éticas

Esta explosión de la IA conlleva el planteamiento de importantes cuestiones éticas que afectan a la ciudadanía. Algunas de las preocupaciones más comunes incluyen a) el riesgo de que la IA tome decisiones que perjudiquen a ciertos grupos de personas acentuando las desigualdades, o b) la posibilidad de que la IA sea utilizada de manera malintencionada.

En relación con la primera de las preocupaciones cabe mencionar el caso de los sistemas de recomendación de empleo para la selección de candidatos. Algunos estudios han demostrado que estos sistemas pueden perpetuar o agravar las desigualdades existentes en la sociedad si no se toman medidas adecuadas para abordar estos problemas. Por ejemplo, si el sistema está entrenado con datos que reflejan las desigualdades de género, raza u orientación sexual existentes, es posible que rechace a candidatos cualificados solo porque pertenecen a ciertos grupos. Ante estas situaciones es fundamental minimizar cualquier posible sesgo o discriminación, y garantizar que se tomen en cuenta los derechos y los valores de todos los grupos de personas.

La expansión de la IA no puede derivar en una pérdida de derechos y garantías que han costado siglos conquistar con sociedades democráticas.

En cuanto a uso malintencionado de la IA, cabe destacar su potencial para la rápida generación y difusión de noticias falsas, una de las principales preocupaciones en los países democráticos. Si se utilizan de manera eficiente, pueden generar graves conflictos sociales y son un arma para la manipulación de la opinión pública, lo que puede erosionar la estabilidad de los Estados y de sus instituciones. Algunos estudios demuestran la intensificación de este tipo de noticias durante periodos electorales, e incluyen modelos causales para descubrir cómo influyeron en los resultados. Un segundo ejemplo es el uso malintencionado de sistemas de vigilancia y control masivo sin el debido consentimiento y control ciudadano. El uso de tecnologías de vigilancia sin un marco legal adecuado puede socavar la privacidad y los derechos individuales.

Necesidad de una IA entendible para comprender las decisiones tomadas por los sistemas artificiales.

Por tanto, surge una necesidad primordial de diseñar algoritmos en los que exista transparencia y cuyas decisiones se ajusten a la ética humana. Dicho de otro modo, es importante que las personas puedan entender y evaluar los motivos detrás de las decisiones tomadas por un sistema artificial. Esto es especialmente importante cuando se trata de decisiones que pueden tener un impacto significativo en la vida de las personas. Hay varias razones por las que es importante que las decisiones tomadas por la IA sean transparentes y entendibles por el ser humano. En primer lugar, la transparencia permite a las personas evaluar si las decisiones tomadas por la IA son justas y equitativas. Si no entendemos los motivos detrás de una decisión, es muy difícil determinar si esta decisión es justa o no. En segundo lugar, la transparencia es esencial para garantizar la confianza de las personas en la IA. Si no entendemos cómo funciona la IA o por qué toma ciertas decisiones, es muy difícil confiar en ella. Por último, la transparencia es esencial para garantizar la responsabilidad de la IA. Si no entendemos cómo funciona la IA, es muy difícil determinar quién o qué es responsable de sus decisiones. 

Medidas para garantizar la transparencia

En esta línea, hay varias medidas que se pueden tomar para garantizar que la Inteligencia Artificial (IA) sea más transparente y que sus decisiones sean entendibles por los seres humanos: 

Seis medidas para una IA más transparente y responsable
  1. Diseñar algoritmos con conciencia social y explicables: Desde fases tempranas de diseño, los creadores deben mantener este propósito en mente. Diseñar algoritmos que tomen conciencia de los sesgos y consideren los impactos sociales y éticos de sus decisiones y acciones. Estos algoritmos deben ser entendibles y explicables incluyendo la revelación de cualquier información relevante que pueda ser necesaria para entender cómo funcionan y cómo toman sus decisiones. 
  2. Algoritmos auditables: El acceso abierto a los algoritmos que influyen en nuestras vidas facilitaría la evaluación y verificación por parte de los interesados. Esta medida puede ayudar a minimizar cualquier posible sesgo o discriminación que puedan tener estos sistemas, ya que permite a los expertos y a otros interesados evaluar y detectar posibles problemas. El ciudadano debe tener derecho a conocer el diseño del algoritmo y su código fuente, en base a la Ley de Transparencia. De esta forma, cada persona puede cerciorarse además de que es tratada por el sistema artificial como un fin en sí misma, y no como un medio para un fin particular.
  3. Fuentes de datos conocidas: Conocer el origen de los datos con los que los algoritmos son entrenados y cómo éstos son filtrados. En muchas ocasiones el sesgo latente ya se encuentra en los propios datos, sin que sea el propio programador quien transfiera sus prejuicios. Los datos no deberían pertenecer ni a las empresas ni a los gobiernos, sino de la ciudadanía. En este sentido, España ha sido pionera mediante la Carta de Derechos Digitales, la cual consta de 25 derechos fundamentales como, por ejemplo, derecho de una persona a no ser localizada y perfilada, o derecho de una persona a no ser discriminada por un algoritmo.
  4. Formación de la ciudadanía: Como en muchas otras ocasiones, la solución pasa por la educación. La ciudadanía debe, por un lado, tomar conciencia de que los algoritmos no son imparciales por el mero hecho de ser matemáticos. Por otro lado, debe formarse para comprender cómo funcionan los algoritmos de IA y cómo toman las decisiones. La computación y el lenguaje informático tendrían que ser ya asignaturas obligatorias en Educación Primaria, Secundaria y Bachillerato. En algunos países de Europa como Bulgaria, Grecia, Hungría o Polonia, la informática se imparte como asignatura diferenciada y obligatoria. En España, sin embargo, el Ministerio de Educación y Formación Profesional suprimió materias de informática de Bachillerato (antiguas TIC). Por este motivo, algunos colectivos iniciaron movimientos para reforzar de nuevo la presencia de la Informática en los currículos de Educación Primaria, Secundaria Obligatoria y Bachillerato.
  5. Establecer normas y regulaciones: Establecimiento de normas y regulaciones para garantizar que los algoritmos de IA se utilicen de manera responsable y ética. Esto puede incluir la creación de leyes y reglamentos que establezcan las responsabilidades y las obligaciones de los diseñadores y usuarios de algoritmos de IA. En la actualidad, la transparencia es un principio ético reconocido por la Unión Europea en numerosos documentos, como en las Directrices Éticas para una Inteligencia Artificial fiable. En el ámbito nacional, también se han iniciado pasos en esta dirección como, por ejemplo, a través de la guía práctica sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral.
  6. Fomentar la colaboración y el diálogo: Es importante fomentar la colaboración y el diálogo entre los diseñadores de algoritmos de IA, los expertos en ética y política y los usuarios para garantizar que se utilicen algoritmos éticos y responsables. 

Reparto de responsabilidades

¿En quién debe recaer la responsabilidad de una IA más transparente y responsable?

La respuesta es: TODA la SOCIEDAD. Esto incluye a los diseñadores y desarrolladores de algoritmos de IA, que deben asegurarse de que estos sistemas sean transparentes y explicables y de que minimizan cualquier posible sesgo o discriminación. También incluye a las empresas y organizaciones que utilizan la IA, que deben asegurarse de que estos sistemas se utilizan de manera responsable y beneficiosa para todos. Además, incluye a los reguladores y gobiernos, que deben establecer normas y regulaciones adecuadas para garantizar el uso responsable y ético de la IA. Finalmente, incluye a la ciudadanía en general, que debe estar informada y educada sobre cómo funcionan los algoritmos de IA y cómo se toman sus decisiones, y que debe participar en el diálogo y la toma de decisiones sobre el uso de la IA en la sociedad. 


Otros artículos de Javier Albusac

[+] El metaverso y la universidad

Comparte con:
Valora este artículo