4分鍾讀取

如何看待人工智能領域的倫理問題?

有特色的圖片

想知道如何開始使用人工智能?以我們的營銷人員按需駕駛AI係列為例。

了解更多

如果你試圖理解、試點、擴展或銷售人工智能,你需要對它的道德使用有一個觀點。

形成一個關於人工智能倫理的觀點並不容易。但這是值得的。

如果對人工智能領域的道德問題沒有清晰的思考,你就有可能損害你的品牌、你的業務和你的客戶。

我們不是在談論對抗超人AI的橫行霸道。那是科幻小說。

我們談論的是避免當你不考慮人工智能技術的道德影響時可能導致的真正的商業問題。

人工智能倫理問題分為兩類:

  1. 偏差問題。人工智能的好壞取決於用來訓練它的數據。人工智能係統中使用的數據有很多方式可以使其(有意或無意)產生偏差。
  2. 倫理問題。即使它是公正的,人工智能仍然可能被濫用。有很多方法可以利用人工智能侵犯用戶隱私或操縱情緒和行為。

那麼你應該如何看待人工智能領域的倫理呢?

首先要問你自己、你的領導和你的供應商三個基本問題。

1.數據從何而來?

無論人工智能使用的是你組織的數據還是它自己的數據集,這些數據來自哪裏?你的組織和人工智能工具隻需要收集用戶同意提供的數據。還需要確定數據的代表性。如果數據來自太有限的池,可能就沒有幫助。

一個引人注目的例子:

人工智能研究員Timnit Gebru發現,穀歌使用的語言模型中的數據來源本身可能是一個問題。從麻省理工科技評論

“一個被教導將種族主義語言視為正常的人工智能模型顯然是壞的。不過,研究人員指出了一些更微妙的問題。一是語言的轉變在社會變革中發揮著重要作用;例如,“我也是”(MeToo)和“黑人的命也是命”(Black Lives Matter)運動試圖建立一種新的反性別歧視和反種族主義詞彙。一個在大量互聯網上訓練的人工智能模型不會適應這些詞彙的細微差別,也不會產生或解釋符合這些新的文化規範的語言。

它也無法捕捉到那些很少接觸互聯網的國家和人民的語言和規範,因此在線語言足跡較小。其結果是,人工智能生成的語言將同質化,反映出最富裕國家和社區的做法。”

格布魯本人也因為這本書的出版而陷入了爭議。她說穀歌因為她指出了道德問題而解雇了她。該公司表示,她辭職了。

2.如何負責任地使用人工智能?

你的組織如何負責任地使用人工智能?供應商如何負責任地使用人工智能?你需要知道。

這時,一份正式的道德價值觀清單就會派上用場了。一個模型是Phrasee這是一家人工智能供應商,其道德政策簡單而明智。你可以借鑒Phrasee的做法,製定自己的人工智能倫理政策,包括一係列關於“我們不會做的事情”和“我們會做的事情”的聲明。

Phrasee的道德政策

“我們不會做的事情:

  1. 我們不會用數據來針對弱勢群體。例如,機器學習算法有可能識別出即將進入躁狂階段的躁鬱症患者,然後建議你針對他們提供奢侈的產品。或者,假設某人最近經曆了分手,或者更糟,失去親人,人們使用人工智能來利用他們的情緒狀態。我們不認為使用人工智能達到這些目的是道德的。我們相信,即使機器的預測可能是正確的,但這並不意味著我們應該用它來剝削人類。我們永遠不會使用這樣的數據。
  2. 我們不會提倡利用負麵情緒來剝削他人。一些人和公司建議選擇明確關注“恐懼、內疚和焦慮”的信息。我們認為人們不應該被這樣對待。作為營銷人員,我們不應該讓人們感到恐懼、內疚和焦慮;相反,我們應該關注我們品牌的積極方麵。我們永遠不會鼓勵我們的客戶使用負麵情緒來針對他們的消費者。
  3. 我們不會與價值觀與我們不一致的客戶合作。過去,我們曾積極拒絕與我們認為對社會有害或商業模式不道德的公司合作。所有潛在客戶都要經過一個審查過程,以確保他們的道德規範與我們的一致。我們不會與槍支和武器零售商、政黨或任何宣揚仇恨言論或社會邊緣化的公司合作。為這類組織工作的人可能都是好人,當你轉行時,我們很樂意與你合作。但現在,它不適合我們。

我們要做的事情:

  1. 采取行動避免偏見和偏見。首先,我們要確保團隊本身是多元化的。Phrasee是性別平衡的,員工來自世界各地的許多國家,有不同的社會經濟狀況、年齡、性取向、種族背景和政治信仰。其次,我們積極開發方法來識別和消除數據集中的偏見。這確保了我們的模型是泛化的,並且在訓練過程中任何少量的有偏見的數據都會被洗掉。
  2. 對我們的AI所做的事情持開放態度。我們使用人工智能來完成兩項非常具體的任務:生成聽起來像人的、符合品牌要求的營銷文案,並預測該文案在野外的表現。我們不會將人工智能用於其他目的,如果或當我們這樣做時,我們將對此公開。我們的客戶應該知道我們在做什麼,我們沒有隱藏任何秘密,邪惡的開發計劃。
  3. 我們不會改變這一政策。我們將監控它,並在需要時添加它。我們視這一道德政策為美國憲法。所以,核心文本不會改變。然而,倫理不是一成不變的,它會隨著時間而變化。我們周圍的世界在變化。當我們的政策需要修訂時,我們會在文件末尾透明地添加修訂內容,注明日期並說明原因。這樣你就能看到我們的立場,以及我們的立場。”

3.什麼護欄是(或應該)到位?

人工智能倫理考慮和人工智能倫理政策是很好的第一步。但人工智能的倫理考量並不是一次性的一係列行動或討論。你的公司和供應商都需要確保遵守人工智能倫理政策的護欄。

將護欄廣泛地視為常規接觸點,並將其納入您的正常工作中。我們說的是:

  • AI倫理的擁有者。需要有一個重要的人來擁有或監督它。
  • 關於人工智能倫理的循環會議。至少每季度安排一次反複討論,以確保你的道德政策得到遵守,並按預期工作。
  • 充分宣傳你的政策。在你的網站上發布你的政策是不夠的。您組織中的人員需要知道它的存在。他們還需要知道為什麼這很重要。而且他們需要相信這一規定正在被執行。畢竟,你的團隊需要在沒人注意的時候考慮AI倫理問題。

相關的帖子

零售業如何使用人工智能內容大規模開展業務

湯姆Salvat| 2018年12月7日

零售業如何擁抱內容智能和人工智能,為客戶提供更個性化的體驗。

接觸後ai時代的消費者

麥克壞了的| 2022年1月21日

人工智能已經從根本上改變了消費者的行為,品牌需要迎頭趕上。以下是品牌需要知道的事情。

為什麼營銷人員需要了解人工智能以及如何開始

麥克壞了的| 2018年1月5日

這是不祥之兆。營銷人員需要了解人工智能。以下是原因,以及如何開始。

Baidu
map