負責任的人工智能:倫理、創新和從大型科技公司吸取的教訓"style=
訂閱

由:麥克壞了的

打印這一頁

2022年2月25日,

負責任的人工智能:倫理、創新和從大型科技公司吸取的教訓

大大小小的公司都需要采用人工智能,同時不要忽視這些解決方案的倫理影響,否則就要付出代價。

這是《麻省理工科技評論》的高級AI編輯Karen Hao在她的主題演講中得出的結論2021年人工智能市場營銷大會

郝在演講中為企業負責任地設計和開發人工智能提供了實用建議,並避免意外後果的可能性……

PS -你聽說過世界領先的營銷AI會議嗎?點擊這裏觀看為2022年MAICON計劃的不可思議的節目。

負責任的人工智能101

郝說,盡管你的出發點是好的,但人工智能可能會產生意想不到的後果。

例如,看似無害、通常運行良好的AI係統可能會因侵犯隱私或對身份進行錯誤分類而意外造成傷害。

以醫療保健領域的人工智能為例…

一個人工智能係統也許能夠在醫療掃描中檢測出癌症,但這可能是通過利用患者的隱私信息來實現的。

或者,係統可能意外地接受了隻從白人而非黑人患者身上提取的數據的訓練,導致係統變得具有歧視性。

這些後果通常不會因為故意的惡意而發生。而是因為人工智能係統本身的工程疏忽。

郝說,為了避免這類後果,商業領袖應該看看其他主要的人工智能實現者(如穀歌和Facebook)所犯的錯誤,作為指導要做的事情。

穀歌、Facebook和人工智能的危險

AI擅長處理大量的信息,並選擇與用戶相關的位。這就是為什麼穀歌使用它來增強搜索功能的幾乎所有方麵。在基本層麵上,穀歌使用人工智能並沒有錯。

但就因為它沒有錯,並不意味著它不能錯了。

如果穀歌的人工智能係統檢索不到準確的信息怎麼辦?或者如果他們隻檢索了信息的一個子集,而不是整個圖像呢?

例如,郝引用的研究表明,穀歌的搜索算法最終將負麵詞彙與黑人女性聯係在一起,而不是白人女性。

但是要小心…

穀歌的人工智能並非故意出錯,但這並不意味著穀歌的領導者不能選擇非常非常錯誤的應對方式。

郝以穀歌的道德AI團隊為例,該團隊負責思考和研究與AI相關的問題。當這個團隊開始批評穀歌的語言模式的某些方麵時,管理層解雇了該團隊的領導。穀歌的語言模式是穀歌廣告機器的高利潤部分。

該事件損害了該公司,並對其負責任的人工智能承諾提出了質疑。

類似的情況也發生在Facebook上,該公司因不負責任地使用人工智能而臭名昭著。

Facebook將人工智能整合到其平台上的所有內容中:填充動態內容、為照片中的人添加標簽、它的Messenger產品,等等。郝說,Facebook上可能沒有一個功能是沒有某種人工智能的對公司有廣泛的報道

理論上,Facebook人工智能係統的目標很簡單:增加用戶的參與度,讓他們在平台上花更多時間,與更多的人聯係,進而讓Facebook的廣告業務更有利可圖。

然而,在實踐中,這些人工智能係統導致許多用戶看到(並傳播)錯誤信息、歧視性信息和煽動性內容——這一切都是因為這些類型的內容很吸引人。

2018年,Facebook成立了一個負責任的AI團隊來解決這個問題。該團隊認定,該公司的技術放大了錯誤信息,分化了用戶。

然而,Facebook並沒有授權團隊去解決這個問題,因為減少與內容的互動意味著平台將不再受歡迎或盈利。

結果,這個問題沒有得到解決。Facebook在經曆了一次吹哨人闡明與公司算法工作方式相關的嚴重問題。

商業領袖應該怎麼做?

那麼,你應該怎麼做呢?

Hao提供了一些快速的建議,以確保你的AI是負責任的,並避免公司的重大問題。

  1. 如果你還沒有開始使用AI,現在就開始吧。如果你現在開始,你會有一個巨大的優勢:你可以看到人工智能在過去幾年是如何明顯出錯的,這可以幫助你避免類似的錯誤。
  2. 獎勵提出尖銳問題的員工。表揚或提拔那些提出與你提議或目前使用人工智能相關的尖銳問題的員工。
  3. 優先考慮人而不是利潤。你不應該害怕修改有問題的項目,或者完全終止它們,即使這在短期內要花錢。人工智能必須如果你想讓它有益於你的公司,保持利益相關者的信任,並避免公關醜聞,就必須造福人類。

PS -你聽說過世界領先的營銷AI會議嗎?點擊這裏觀看為2022年MAICON計劃的不可思議的節目。

關於麥克壞了的

Mike Kaput是營銷AI研究所的首席內容官。BETVlCTOR1946伟德

  • 與Mike Kaput聯係
披露:營銷AI研究所撰寫BETVlCTOR1946伟德和推薦人工智能驅動的營銷和銷售技術。在所有情況下,內容和建議都是獨立和客觀的。在某些情況下,營銷AI研究所可BETVlCTOR1946伟德能與上述公司有業務關係,其中可能包括財務補償、附屬機構補償或產品或服務的實物支付。查看研究所合作夥伴的列表在這裏和麥孔讚助商在這裏