2分鍾閱讀

人工智能中的偏見是什麼——你如何防止它?

有特色的圖片

想知道如何開始使用AI?看看我們的營銷人員按需駕駛AI係列。

了解更多

人工智能會有偏見嗎?

你的賭注。

盡管AI有明顯的好處,但它最終可能通過偏見傷害消費者、品牌和行業。

當我們說AI可以有偏見時,我們指的是什麼?什麼是AI的偏見?

簡單地說,AI中的偏見是指AI係統產生了意料之外的、不受歡迎的輸出。

產生偏見有兩大原因:

  • 人類的盲點。人類有意無意地將自己的偏見注入到AI或AI係統設計使用的數據中。這些可能包括基於年齡、性別、性別、種族或其他特征的直接或間接歧視。
  • 不完整的數據。用於訓練AI的數據在不完整的情況下也會產生偏見。AI的好壞取決於它的訓練數據。因此,如果數據缺乏足夠的多樣性或全麵性,差距就會引發問題。

為什麼AI中的偏見會是有害的?

首先是明顯的危害:人工智能會助長公然的偏執。

一個例子是An微軟創造的用於在推特上發帖的人工智能機器人

機器人從推特上的對話中學會了如何像人一樣發推文。不幸的是,用來訓練它的很多語言都是褻瀆和偏執的。

結果,機器人在推特上的語言嚴重不當。微軟迅速關閉了測試。

AI不能發明偏執本身。它從人類那裏學習,人類把它顯示在用於訓練的數據集中。

如果微軟沒有在包含偏執語言的數據集中訓練它的機器人,它就不會是偏執的。這是一個錯誤,而不是惡意行為。該公司沒有預料到將整個Twitter用作數據集的後果。

然而,它仍然傷害了人們和公司的形象。結果就像公司故意讓機器人產生偏見一樣。

這就是為什麼人工智能中的偏見如此危險。

第二,是更常見但不那麼明顯的危害:AI可能會因為數據不完整而無意中產生偏見。

蘋果卡就是一個例子。

2019年,蘋果發布了一款信用卡產品。該公司使用的AI會根據消費、信用評分、收入等多種特征自動為申請人提供信用額度。

然而,當人們發現蘋果的人工智能給了女性一個較小的信用額度比男性多,即使在控製其他因素的情況下。

之所以會出現這種情況,是因為AI係統使用了不完全的數據,沒有考慮到與收入和薪酬相關的一係列性別相關因素。

結果,它得出的結論是,即使在財務狀況相同的情況下,女性應得的榮譽也低於男性。

那麼,如何應對人工智能中的偏見呢?

一旦你構建了一個產品或係統,通常已經太晚了。

你需要在導致在產品和運營中采用AI的每一步過程中解決偏見問題。

微軟和蘋果的例子證明了這一點。兩家公司都擅長AI。兩家公司都擁有世界級的工程人才。然而,他們都對AI領域的偏見感到驚訝。而當他們發現的時候,已經太晚了。

這種技術是健全的。但對偏見的考慮並不合理。

這是因為修正AI中的偏見不僅僅是一個技術問題。

當然,你需要完全相信你的數據是全麵、準確和幹淨的。

但你也需要在每個業務職能部門,而不僅僅是工程部門,都有人員和流程到位,以評估偏見風險。這是一項全麵的努力,需要時間。

一個很好的起點是為你的組織起草一份AI倫理政策,無論你是構建AI技術還是在工作中使用它。

AI倫理聲明是公開發布的一份正式文件,概述了你的公司對AI的立場。

它提供了你的公司將如何使用和不使用人工智能的細節。

它還詳細說明了你采取(或將采取)哪些步驟,以確保倫理問題和偏見不影響你構建或使用的AI。

相關的帖子

The Future is Marketer + Machine【MAICON 2019開幕視頻】

保羅Roetzer| 2019年7月17日

人工智能有能力改變我們的商業和職業。請觀看2019年營銷人工智能大會的視頻。

營銷人員如何使用人工智能?

保羅Roetzer| 2019年3月29日

在《數字營銷中的人工智能》的第二部分中,Paul Roetzer和HubSpot機器學習產品經理Kevin Walsh討論了營銷人員應該考慮AI的原因,HubSpot如何在其平台中考慮AI,以及營銷人員可以從使用Gmail中了解AI的什麼。

營銷人員如何開始使用人工智能?

保羅Roetzer| 2019年4月23日

在這個5集的係列節目中,PR 20/20的創始人兼CEO Paul Roetzer與HubSpot機器學習產品經理Kevin Walsh坐下來討論人工智能在數字營銷中的應用。

Baidu
map