負責人的AI:從大型技術中學到的道德,創新和教訓“style=
訂閱

經過:邁克·卡普特(Mike Kaput)

打印此頁

2022年2月25日

負責人的AI:從大型技術中學到的道德,創新和教訓

公司大小需要采用AI,而不會忽視這些解決方案的道德含義或付出代價。

這就是麻省理工學院技術評論高級AI編輯Karen Hao的收獲營銷AI會議(Maicon)2021

在演講中,HAO為公司提供了負責任地設計和開發AI的實用建議,並避免了意外後果的可能性……

PS-您是否聽說過世界領先的營銷AI會議?點擊這裏要查看Maicon 2022計劃的令人難以置信的節目。

負責人工智能101

Hao說,盡管您的意圖最佳,AI仍會產生意想不到的後果。

例如,看似良性的AI係統通常運行良好,可能會因侵犯隱私或對身份錯誤進行侵犯而意外造成傷害。

以醫療保健中的AI為例…

AI係統可能能夠在醫療掃描中檢測到癌症,但可以通過利用應該保持私密的患者信息來做到這一點。

或者,該係統可能是對僅從白色而不是黑色患者獲取的數據進行培訓的,從而導致該係統變得歧視。

這些後果通常不會因為故意惡意而發生。而是來自AI係統本身的工程監督。

Hao說,為避免這些類型的後果,商業領袖應該考慮其他主要的AI實施者(例如Google和Facebook)作為指南的錯誤不是去做。

Google,Facebook和AI的危險

AI擅長處理大量信息,並為用戶選擇相關位。這就是為什麼Google使用它為其搜索功能的幾乎各個方麵供電的原因。在基本層麵上,Google使用AI並沒有錯。

但是僅僅因為它沒有錯,並不意味著它不能錯誤的。

如果Google的AI係統沒有檢索準確的信息怎麼辦?或者,如果他們僅檢索一部分信息,而不是全部圖片怎麼辦?

例如,HAO引用了Google的搜索算法最終與黑人婦女但沒有白人婦女相關的研究。

但小心點…

僅僅因為Google的AI並沒有故意出錯,並不意味著Google的領導者無法選擇對該問題的非常非常錯誤的回應。

豪列舉了Google的道德AI團隊的例子,該團隊負責考慮與AI相關問題的研究和研究。當該團隊開始批評Google語言模型的某些方麵(這是Google廣告機的高利潤的一部分)時,管理層解雇了團隊的領導者。

該事件損壞了公司,並質疑其對負責人AI的承諾。

Facebook也發生了類似的情況,該場景因其不負責任的AI而積極臭名昭著。

Facebook將AI集成到他們平台上的所有內容:填充飼料內容,在照片中標記人員,其Messenger產品等等。Hao說,Facebook上可能沒有任何AI的功能。廣泛報道了公司

從表麵上看,Facebook AI係統的目標很簡單:增加用戶的參與度,因此他們在平台上花費更多的時間並與更多的人建立聯係,這又使Facebook的廣告業務更加有利可圖。

但是,實際上,這些AI係統使許多用戶看到(和傳播)錯誤信息,歧視性消息和發病含量,這都是因為這些類型的內容引人入勝。

2018年,Facebook成立了一個負責任的AI團隊來解決該問題。該團隊確定該公司的技術正在擴大錯誤信息和兩極分化的用戶。

但是,Facebook並沒有使團隊能夠對這個問題做任何事情,因為減少與內容的參與意味著該平台不會那麼受歡迎或有利可圖。

結果,問題沒有解決。在Facebook之後,Facebook麵臨著更多問題舉報人闡明了與公司算法如何工作有關的嚴重問題。

業務領導者應該做什麼?

那麼,您該怎麼辦?

Hao提供了一些快速的提示,以確保您的AI負責並避免您的公司重大問題。

  1. 如果您還沒有,請立即開始AI。如果您現在開始,您將有一個巨大的優勢:您可以看到AI在過去幾年中顯然出了問題,這可以幫助您避免類似的錯誤。
  2. 獎勵員工提出棘手的問題。讚美或促進員工,他們提出與您建議或當前使用AI有關的棘手問題。
  3. 優先考慮人們的利潤。您不應該害怕修改有問題的項目,或者完全終止它們,即使在短期內花了錢。AI必須如果您希望它使您的公司受益,維護利益相關者的信任並避免公關醜聞,則受益於人類。

PS-您是否聽說過世界領先的營銷AI會議?點擊這裏要查看Maicon 2022計劃的令人難以置信的節目。

關於邁克·卡普特

Mike Kaput是Marketing AI Institute的首席內容官BETVlCTOR1946伟德。

  • 與Mike Kaput聯係
披露:營銷AI研究所撰寫BETVlCTOR1946伟德並推薦了AI驅動的營銷和銷售技術。在所有情況下,內容和建議都是獨立和客觀的。在某些情況下,營銷AI研究所可BETVlCTOR1946伟德能與上述公司有業務關係,其中可能包括財務補償,會員薪酬或以產品或服務為實物付款。查看研究所合作夥伴清單這裏和Maicon讚助商這裏