ESI ULM
首頁 意見邁向透明和負責任的人工智能

邁向透明和負責任的人工智能

Javier Albusac,Ciudad Real Higher School of Informatics 的終身大學教授。 卡斯蒂利亞-拉曼恰大學。

邁向透明和負責任的人工智能

通過 哈維爾·阿布薩克 (大學教授)。

我們不能否認,我們正在走向一個日益數字化的社會,在這個社會中, 人工智能(AI) 它將成為我們社會和文化結構的一個組成部分。 面對這一現實,這項技術將如何影響我們的生活,亟待反思,並 如果它的使用對所有人都是公平和有益的. 如果說工業革命改變了我們生產和消費的方式,而數字革命改變了我們交流和獲取信息的方式,那麼 人工智能革命 它將迎來一個我們將以全新方式工作和做出決策的時代。

人工智能革命

人工智能爆炸和道德問題

人工智能的爆炸帶來了 方法 重要的 倫理道德問題 影響公民。 一些最常見的擔憂包括 a) AI 做出通過加劇不平等而傷害某些人群的決策的風險,或 b) AI 被惡意使用的可能性。

關於第一個問題,值得一提的是用於選擇候選人的工作推薦系統。 一些研究 已經表明,如果不採取適當措施解決這些問題,這些系統可能會延續或加劇社會中現有的不平等現象。 例如,如果系統根據反映現有性別、種族或性取向不平等的數據進行訓練,它可能會拒絕合格的候選人,僅僅因為他們屬於某些群體。 在這些情況下,必須盡量減少任何潛在的偏見或歧視,並確保考慮到所有人群的權利和價值觀。

人工智能的擴張不會導致民主社會花了幾個世紀才獲得的權利和保障的喪失。

關於人工智能的惡意使用,值得注意的是它可能會迅速產生和傳播虛假新聞,這是民主國家的主要擔憂之一。 如果有效地使用它們,它們可能會引發嚴重的社會衝突,並成為操縱輿論的武器,這可能會削弱國家及其機構的穩定。 一些研究 展示選舉期間此類新聞的強化,並包括因果模型以發現它們如何影響結果。 第二個例子是在未經適當同意和公民控制的情況下惡意使用監視和大規模控制系統。 在沒有適當法律框架的情況下使用監控技術可能會損害隱私和個人權利。

需要一個可理解的人工智能來理解人工系統做出的決定。

因此,出現 需要 設計必不可少 算法 其中存在 透明度 其決定符合 人類倫理. 換句話說,重要的是人們能夠理解和評估人工系統做出決策背後的原因。 當涉及到可能對人們的生活產生重大影響的決策時,這一點尤為重要。 人工智能做出的決策透明且可被人類理解這一點很重要,原因有很多。 首先,透明度允許人們 評估 AI做出的決定是否公平公正。 如果我們不了解決定背後的原因,就很難判斷這個決定是否公平。 其次,透明度對於確保 信心 人工智能領域的人。 如果我們不了解 AI 的工作原理或做出某些決定的原因,就很難相信它。 最後,透明度對於保證 責任 的人工智能。 如果我們不了解人工智能的工作原理,就很難確定誰或什麼對其決策負責。 

確保透明度的措施

沿著這些路線,有幾個 措施 可以用來 保證人工智能 (AI) 成為 更透明 而他們的 決定可以理解的 人類: 

提高透明度和責任感的 AI 的六項措施
  1. 設計具有社會意識和可解釋的算法:從早期的設計階段開始,創作者就應該牢記這一目的。 設計能夠意識到偏見並考慮其決策和行為的社會和道德影響的算法。 這些算法必須是可理解和可解釋的,包括披露了解它們如何工作以及如何做出決策可能需要的任何相關信息。 
  2. 可審計的算法:開放訪問影響我們生活的算法將使利益相關者更容易評估和驗證。 這項措施有助於最大限度地減少這些系統可能存在的任何潛在偏見或歧視,因為它允許專家和其他利益相關者評估和發現潛在問題。 根據透明度法,公民必須有權了解算法的設計及其源代碼。 通過這種方式,每個人也可以確保他們被人工系統視為目的本身,而不是作為達到特定目的的手段。
  3. 已知數據源: 了解用於訓練算法的數據的來源以及如何過濾這些數據。 在很多情況下,潛在的偏見已經在數據本身中被發現,而不需要程序員自己轉移他的偏見。 數據不應屬於公司或政府,而應屬於公民。 從這個意義上說,西班牙一直是先行者 數字權利法案,其中包含 25 項基本權利,例如一個人不被定位和概況的權利,或者一個人不被算法歧視的權利。
  4. 公民身份的形成:與許多其他場合一樣,解決方案在於教育。 一方面,公民必須意識到算法並不是僅僅因為數學的事實而公正的。 另一方面,您需要接受培訓以了解人工智能算法的工作原理以及它們如何做出決策。 計算和計算機語言應該已經成為小學、中學和學士學位教育的必修科目。 在一些歐洲國家,如保加利亞、希臘、匈牙利或波蘭, 計算機科學作為一門單獨的必修科目教授. 然而,在西班牙,教育和職業培訓部禁止學士學位(以前稱為 ICT)中的計算機科學科目。 為此原因, 一些團體開始運動,再次加強信息技術的存在 在小學教育、義務中學和學士學位課程中。
  5. 建立規章制度:建立規章制度,確保以負責任和合乎道德的方式使用人工智能算法。 這可能包括制定法律法規,規定人工智能算法的設計者和用戶的責任和義務。 目前,透明度是歐盟在眾多文件中認可的道德原則,例如 可信人工智能倫理指南. 在國家一級,也朝著這個方向採取了步驟,例如,通過 關於提供有關在工作場所使用算法的信息的商業義務的實用指南。
  6. 鼓勵合作與對話:重要的是要促進 AI 算法設計者、倫理學家和政策專家以及用戶之間的合​​作和對話,以確保使用合乎道德和負責任的算法。 

責任分配

誰應該倒下 對更加透明和負責任的 AI 負責?

答案是:所有社會。 這包括 AI 算法的設計者和開發者,他們必須確保這些系統是透明的和可解釋的,並將任何潛在的偏見或歧視降至最低。 它還包括使用人工智能的公司和組織,他們必須確保以負責任和互惠互利的方式使用這些系統。 此外,它還包括監管機構和政府,他們必須制定適當的規則和條例,以確保以負責任和合乎道德的方式使用人工智能。 最後,它包括普通大眾,他們必須了解和教育 AI 算法如何工作以及他們的決策如何做出,以及誰必須參與有關 AI 在社會中的使用的對話和決策。。 


哈維爾·阿布薩克的其他文章

[] 元宇宙和大學

與某人分享:
評價這個項目