ESIUCLM
CasaOpinioneVerso un'Intelligenza Artificiale trasparente e responsabile

Verso un'Intelligenza Artificiale trasparente e responsabile

Javier Albusac, professore universitario di ruolo presso la Scuola Superiore di Informatica di Ciudad Real. Università di Castilla-La Mancha.

Verso un'Intelligenza Artificiale trasparente e responsabile

da Javier Albusac (Professore universitario).

Non possiamo negarlo, ci stiamo dirigendo verso una società sempre più digitalizzata in cui il Intelligenza artificiale (AI) sarà parte integrante del nostro tessuto sociale e culturale. Di fronte a questa realtà, sono urgenti riflessioni su come questa tecnologia influenzerà le nostre vite, e se il suo uso sarà giusto e vantaggioso per tutti. Se la rivoluzione industriale ha cambiato il modo in cui produciamo e consumiamo e la rivoluzione digitale ha trasformato il modo in cui comunichiamo e accediamo alle informazioni, il Rivoluzione dell'Intelligenza Artificiale inaugurerà un'era in cui lavoreremo e prenderemo decisioni in modi completamente nuovi.

Rivoluzione dell'IA

Esplosione dell'intelligenza artificiale e sollevamento di questioni etiche

Questa esplosione di AI porta il approccio di importante problemi etici che colpiscono la cittadinanza. Alcune delle preoccupazioni più comuni includono a) il rischio che l'IA prenda decisioni che danneggino determinati gruppi di persone accentuando le disuguaglianze o b) la possibilità che l'IA venga utilizzata in modo dannoso.

In relazione alla prima preoccupazione, vale la pena citare il caso dei sistemi di raccomandazione del lavoro per la selezione dei candidati. Alcuni studi hanno dimostrato che questi sistemi possono perpetuare o aggravare le disuguaglianze esistenti nella società se non vengono prese misure adeguate per affrontare questi problemi. Ad esempio, se il sistema viene addestrato su dati che riflettono le disuguaglianze di genere, razza o orientamento sessuale esistenti, potrebbe rifiutare candidati qualificati solo perché appartengono a determinati gruppi. In queste situazioni è essenziale ridurre al minimo qualsiasi potenziale pregiudizio o discriminazione e garantire che i diritti e i valori di tutti i gruppi di persone siano presi in considerazione.

L'espansione dell'IA non può portare a una perdita di diritti e garanzie che ci sono voluti secoli per raggiungere con le società democratiche.

Per quanto riguarda l'uso dannoso dell'IA, vale la pena notare il suo potenziale per la rapida generazione e diffusione di notizie false, una delle principali preoccupazioni nei paesi democratici. Se utilizzati in modo efficiente, possono generare gravi conflitti sociali e sono un'arma di manipolazione dell'opinione pubblica, che può erodere la stabilità degli Stati e delle loro istituzioni. Alcuni studi dimostrare l'intensificazione di questo tipo di notizie durante i periodi elettorali e includere modelli causali per scoprire come hanno influenzato i risultati. Un secondo esempio è l'uso dannoso di sistemi di sorveglianza e controllo di massa senza il consenso e il controllo dei cittadini. L'uso di tecnologie di sorveglianza senza un adeguato quadro giuridico può minare la privacy ei diritti individuali.

Necessità di un'intelligenza artificiale comprensibile per comprendere le decisioni prese dai sistemi artificiali.

Pertanto, sorge necesidad essenziale per progettare algoritmi in cui esiste trasparenza e le cui decisioni sono conformi al etica umana. In altre parole, è importante che le persone possano capire e valutare le ragioni dietro le decisioni prese da un sistema artificiale. Ciò è particolarmente importante quando si tratta di decisioni che possono avere un impatto significativo sulla vita delle persone. Ci sono diversi motivi per cui è importante che le decisioni prese dall'IA siano trasparenti e comprensibili per gli esseri umani. In primo luogo, la trasparenza consente alle persone valutare se le decisioni prese dall'IA sono giuste e giuste. Se non comprendiamo le ragioni alla base di una decisione, è molto difficile determinare se questa decisione sia giusta o meno. In secondo luogo, la trasparenza è essenziale per garantire il fiducia di persone in IA. Se non capiamo come funziona l'IA o perché prende determinate decisioni, è molto difficile fidarsi di essa. Infine, la trasparenza è essenziale per garantire il responsabilità dell'IA. Se non capiamo come funziona l'IA, è molto difficile determinare chi o cosa è responsabile delle sue decisioni. 

Misure per garantire la trasparenza

Lungo queste linee, ce ne sono diversi misure che può essere preso per garantire che Intelligenza artificiale (AI) essere più trasparente e che il loro decisioni sono comprensibile dagli esseri umani: 

Sei misure per un'IA più trasparente e responsabile
  1. Progetta algoritmi socialmente consapevoli e spiegabili: Fin dalle prime fasi di progettazione, i creatori dovrebbero tenere a mente questo scopo. Progetta algoritmi che siano consapevoli dei pregiudizi e considerino gli impatti sociali ed etici delle loro decisioni e azioni. Questi algoritmi devono essere comprensibili e spiegabili, compresa la divulgazione di qualsiasi informazione rilevante che potrebbe essere necessaria per capire come funzionano e come prendono le loro decisioni. 
  2. algoritmi verificabili: L'accesso aperto agli algoritmi che influenzano le nostre vite renderebbe più facile la valutazione e la verifica da parte delle parti interessate. Questa misura può aiutare a ridurre al minimo qualsiasi potenziale pregiudizio o discriminazione che questi sistemi possono avere, poiché consente agli esperti e ad altre parti interessate di valutare e rilevare potenziali problemi. Il cittadino deve avere il diritto di conoscere il design dell'algoritmo e il suo codice sorgente, in base alla Legge sulla Trasparenza. In questo modo, ogni persona può anche assicurarsi di essere trattata dal sistema artificiale come fine a se stessa, e non come mezzo per un fine particolare.
  3. Fonti di dati conosciute: Conoscere l'origine dei dati con cui vengono addestrati gli algoritmi e come vengono filtrati. In molte occasioni, il pregiudizio latente si trova già nei dati stessi, senza che lo stesso programmatore trasferisca i suoi pregiudizi. I dati non dovrebbero appartenere ad aziende o governi, ma ai cittadini. In questo senso, la Spagna è stata pioniera attraverso il Carta dei diritti digitale, che consiste in 25 diritti fondamentali, come il diritto di una persona a non essere localizzato e profilato, o il diritto di una persona a non essere discriminata da un algoritmo.
  4. Formazione della cittadinanza: Come in molte altre occasioni, la soluzione sta nell'istruzione. I cittadini devono, da un lato, prendere coscienza che gli algoritmi non sono imparziali per il solo fatto di essere matematici. D'altra parte, devi essere addestrato per capire come funzionano gli algoritmi di intelligenza artificiale e come prendono le decisioni. L'informatica e il linguaggio informatico dovrebbero già essere materie obbligatorie nell'istruzione primaria, secondaria e di maturità. In alcuni paesi europei come Bulgaria, Grecia, Ungheria o Polonia, L'informatica è insegnata come materia separata e obbligatoria. In Spagna, invece, il Ministero dell'Istruzione e della Formazione Professionale ha soppresso le materie informatiche dal Baccalaureato (ex ICT). Per questa ragione, alcuni gruppi hanno avviato movimenti per rafforzare ancora una volta la presenza dell'Information Technology nei curricula dell'Istruzione Primaria, Secondaria dell'obbligo e del Baccalaureato.
  5. Stabilire regole e regolamenti: definizione di norme e regolamenti per garantire che gli algoritmi di intelligenza artificiale siano utilizzati in modo responsabile ed etico. Ciò può includere la creazione di leggi e regolamenti che stabiliscano le responsabilità e gli obblighi dei progettisti e degli utenti di algoritmi di intelligenza artificiale. Attualmente la trasparenza è un principio etico riconosciuto dall'Unione Europea in numerosi documenti, come in le linee guida etiche per un'intelligenza artificiale affidabile. Anche a livello nazionale sono stati compiuti passi in questa direzione, ad esempio attraverso il guida pratica sull'obbligo aziendale di fornire informazioni sull'uso degli algoritmi sul posto di lavoro.
  6. Incoraggiare la collaborazione e il dialogo: è importante promuovere la collaborazione e il dialogo tra progettisti di algoritmi di intelligenza artificiale, esperti di etica ed esperti di politiche e utenti per garantire che vengano utilizzati algoritmi etici e responsabili. 

distribuzione delle responsabilità

Chi dovrebbe cadere responsabilità per un'IA più trasparente e responsabile?

La risposta è: TUTTA LA SOCIETÀ. Ciò include progettisti e sviluppatori di algoritmi di intelligenza artificiale, che devono garantire che questi sistemi siano trasparenti e spiegabili e che riducano al minimo qualsiasi potenziale pregiudizio o discriminazione. Include anche aziende e organizzazioni che utilizzano l'IA, che devono garantire che questi sistemi siano utilizzati in modo responsabile e reciprocamente vantaggioso. Inoltre, include autorità di regolamentazione e governi, che devono stabilire norme e regolamenti adeguati per garantire l'uso responsabile ed etico dell'IA. Infine, include il pubblico in generale, che deve essere informato e istruito su come funzionano gli algoritmi di IA e su come vengono prese le loro decisioni, e che deve partecipare al dialogo e al processo decisionale sull'uso dell'IA nella società. 


Altri articoli di Javier Albusac

[+] Il metaverso e l'università

Condividi con:
Valuta questo articolo