ESI UCLM
AccueilOpinionVers une Intelligence Artificielle transparente et responsable

Vers une Intelligence Artificielle transparente et responsable

Javier Albusac, professeur titulaire à l'École supérieure d'informatique de Ciudad Real. Université de Castille-La Manche.

Vers une Intelligence Artificielle transparente et responsable

Par Javier Albusac (Professeur d'université).

Nous ne pouvons pas le nier, nous nous dirigeons vers une société de plus en plus numérisée dans laquelle Intelligence artificielle (IA) elle fera partie intégrante de notre tissu social et culturel. Face à cette réalité, des réflexions s'imposent de toute urgence sur la manière dont cette technologie affectera nos vies, et si son utilisation sera juste et bénéfique pour tous. Si la révolution industrielle a changé notre façon de produire et de consommer, et que la révolution numérique a transformé notre façon de communiquer et d'accéder à l'information, la Révolution de l'intelligence artificielle cela inaugurera une ère où nous travaillerons et prendrons des décisions de manière entièrement nouvelle.

Révolution de l'IA

Explosion de l'IA et questions éthiques soulevées

Cette explosion de l'IA amène le approcher d'important questions éthiques qui touchent les citoyens. Certaines des préoccupations les plus courantes incluent a) le risque que l'IA prenne des décisions qui nuisent à certains groupes de personnes en accentuant les inégalités, ou b) la possibilité que l'IA soit utilisée à des fins malveillantes.

En ce qui concerne la première préoccupation, il convient de mentionner le cas des systèmes de recommandation d'emploi pour la sélection des candidats. Certaines études ont montré que ces systèmes peuvent perpétuer ou aggraver les inégalités existantes dans la société si des mesures adéquates ne sont pas prises pour résoudre ces problèmes. Par exemple, si le système est formé sur des données qui reflètent les inégalités existantes en matière de sexe, de race ou d'orientation sexuelle, il peut rejeter des candidats qualifiés simplement parce qu'ils appartiennent à certains groupes. Dans ces situations, il est essentiel de minimiser tout préjugé ou discrimination potentiel et de veiller à ce que les droits et les valeurs de tous les groupes de personnes soient pris en compte.

L'expansion de l'IA ne peut pas conduire à une perte de droits et de garanties qui ont mis des siècles à se concrétiser dans les sociétés démocratiques.

En ce qui concerne l'utilisation malveillante de l'IA, il convient de noter son potentiel de génération et de propagation rapides de fausses nouvelles, l'une des principales préoccupations des pays démocratiques. S'ils sont utilisés efficacement, ils peuvent générer de graves conflits sociaux et sont une arme de manipulation de l'opinion publique, ce qui peut éroder la stabilité des États et de leurs institutions. Certaines études démontrer l'intensification de ce type de nouvelles pendant les périodes électorales, et inclure des modèles de causalité pour découvrir comment ils ont influencé les résultats. Un deuxième exemple est l'utilisation malveillante des systèmes de surveillance et de contrôle de masse sans le consentement approprié et le contrôle des citoyens. L'utilisation de technologies de surveillance sans un cadre juridique approprié peut porter atteinte à la vie privée et aux droits individuels.

Besoin d'une IA compréhensible pour comprendre les décisions prises par les systèmes artificiels.

Par conséquent, il se pose necesidad indispensable à la conception algoritmos dans lequel existe transparence et dont les décisions sont conformes aux éthique humaine. En d'autres termes, il est important que les gens puissent comprendre et évaluer les raisons des décisions prises par un système artificiel. Ceci est particulièrement important lorsqu'il s'agit de décisions qui peuvent avoir un impact significatif sur la vie des gens. Il y a plusieurs raisons pour lesquelles il est important que les décisions prises par l'IA soient transparentes et compréhensibles par les humains. Premièrement, la transparence permet aux gens évaluer si les décisions prises par l'IA sont équitables et justes. Si nous ne comprenons pas les raisons d'une décision, il est très difficile de déterminer si cette décision est juste ou non. Deuxièmement, la transparence est essentielle pour garantir la confiance de personnes en IA. Si nous ne comprenons pas comment fonctionne l'IA ou pourquoi elle prend certaines décisions, il est très difficile de lui faire confiance. Enfin, la transparence est essentielle pour garantir la responsabilité de l'IA. Si nous ne comprenons pas comment fonctionne l'IA, il est très difficile de déterminer qui ou quoi est responsable de ses décisions. 

Des mesures pour assurer la transparence

Dans cette lignée, il existe plusieurs mesures qui peut être pris pour garantie que Intelligence artificielle (IA) être plus transparent et que leur décisions sont compréhensible par les humains : 

Six mesures pour une IA plus transparente et responsable
  1. Concevoir des algorithmes socialement conscients et explicables : Dès les premières phases de conception, les créateurs doivent garder cet objectif à l'esprit. Concevoir des algorithmes conscients des préjugés et tenant compte des impacts sociaux et éthiques de leurs décisions et actions. Ces algorithmes doivent être compréhensibles et explicables, y compris la divulgation de toute information pertinente qui peut être nécessaire pour comprendre comment ils fonctionnent et comment ils prennent leurs décisions. 
  2. algorithmes auditables: Un accès ouvert aux algorithmes qui influencent nos vies faciliterait l'évaluation et la vérification des parties prenantes. Cette mesure peut aider à minimiser tout biais ou discrimination potentiel que ces systèmes peuvent avoir, car elle permet aux experts et autres parties prenantes d'évaluer et de détecter les problèmes potentiels. Le citoyen doit avoir le droit de connaître la conception de l'algorithme et son code source, sur la base de la loi sur la transparence. De cette façon, chaque personne peut également s'assurer qu'elle est traitée par le système artificiel comme une fin en soi, et non comme un moyen pour une fin particulière.
  3. Sources de données connues : Connaître l'origine des données avec lesquelles les algorithmes sont formés et comment ils sont filtrés. À de nombreuses reprises, le biais latent se trouve déjà dans les données elles-mêmes, sans que le programmeur lui-même ne transfère ses préjugés. Les données ne doivent pas appartenir aux entreprises ou aux gouvernements, mais aux citoyens. En ce sens, l'Espagne a été pionnière à travers la Déclaration numérique des droits, qui se compose de 25 droits fondamentaux, comme le droit d'une personne de ne pas être localisée et profilée, ou le droit d'une personne de ne pas être discriminée par un algorithme.
  4. Formation de la citoyenneté: Comme à bien d'autres occasions, la solution réside dans l'éducation. Les citoyens doivent, d'une part, prendre conscience que les algorithmes ne sont pas impartiaux du simple fait qu'ils sont mathématiques. D'autre part, vous devez être formé pour comprendre comment fonctionnent les algorithmes d'IA et comment ils prennent des décisions. L'informatique et le langage informatique devraient déjà être des matières obligatoires dans l'enseignement primaire, secondaire et au baccalauréat. Dans certains pays européens comme la Bulgarie, la Grèce, la Hongrie ou la Pologne, L'informatique est enseignée comme une matière distincte et obligatoire. En Espagne, cependant, le ministère de l'Éducation et de la Formation professionnelle a supprimé les matières informatiques du baccalauréat (anciennement TIC). Pour cette raison, certains groupes ont lancé des mouvements pour renforcer à nouveau la présence des technologies de l'information dans les curricula de l'Enseignement Primaire, Secondaire Obligatoire et Baccalauréat.
  5. Établir des règles et des règlements: Établissement de règles et de réglementations pour garantir que les algorithmes d'IA sont utilisés de manière responsable et éthique. Cela peut inclure la création de lois et de réglementations qui établissent les responsabilités et les obligations des concepteurs et des utilisateurs d'algorithmes d'IA. Actuellement, la transparence est un principe éthique reconnu par l'Union européenne dans de nombreux documents, comme dans les lignes directrices éthiques pour une intelligence artificielle digne de confiance. Au niveau national, des mesures ont également été prises dans ce sens, par exemple à travers la guide pratique sur l'obligation des entreprises d'informer sur l'utilisation des algorithmes sur le lieu de travail.
  6. Encourager la collaboration et le dialogue: Il est important de favoriser la collaboration et le dialogue entre les concepteurs d'algorithmes d'IA, les éthiciens et les experts en politiques, et les utilisateurs pour garantir que des algorithmes éthiques et responsables sont utilisés. 

répartition des responsabilités

Sur qui tomber responsabilité pour une IA plus transparente et responsable?

La réponse est : TOUTE LA SOCIÉTÉ. Cela inclut les concepteurs et les développeurs d'algorithmes d'IA, qui doivent s'assurer que ces systèmes sont transparents et explicables, et qu'ils minimisent tout biais ou discrimination potentiels. Cela inclut également les entreprises et les organisations qui utilisent l'IA, qui doivent s'assurer que ces systèmes sont utilisés de manière responsable et mutuellement bénéfique. En outre, il comprend les régulateurs et les gouvernements, qui doivent établir des règles et réglementations adéquates pour garantir une utilisation responsable et éthique de l'IA. Enfin, cela inclut le grand public, qui doit être informé et éduqué sur le fonctionnement des algorithmes d'IA et la façon dont ses décisions sont prises, et qui doit participer au dialogue et à la prise de décision sur l'utilisation de l'IA dans la société. . 


Autres articles de Javier Albusac

[+] Le métaverse et l'université

Partager avec:
Évaluez cet article