3分鍾閱讀

如何將AI用於善

有特色的圖片

想知道如何開始使用AI嗎?看看我們的營銷人員按需駕駛AI係列。

了解更多

在你的營銷或商業生涯中,人工智能可以給你超能力。但你可以用這些超能力做好事,也可以作惡。

AI出問題的方式有很多。作為營銷人員、技術人員和企業領導人,我們有責任確保我們將AI用於好的方麵。

如何?

1.確保你有好的數據。

AI根據數據進行預測。

對於營銷人員來說,這些數據可能來自電子郵件、客戶關係管理和廣告活動。每個人,在每一個商業功能中,都有幾十個他們使用的數據源。

如果數據不好,預測也會不好。這對你的公司、消費者和你的職業生涯都是有害的。

領先評分就是這方麵的一個實際例子。人工智能的存在是為了獲得新線索。它使用了你擁有的關於皈依者的所有現有數據。如果準確,AI可以有效地大規模評分線索。

問題在於你給出的數據。如果是糟糕的數據,你就會得到糟糕的領先分數。當這種情況發生時,銷售人員就會受到負麵影響。他們看到不好的分數出來,結果就不信任機器了。幾天後,他們就會停止使用這個係統,回歸人類直覺。

這種折磨會破壞銷售人員對你的信任。這會損害他們的經濟生計。而且還會讓公司損失資金。

更不用說,你仍然沒有良好的領先分數。

糟糕的數據會導致糟糕的結果。

2.確保你的數據沒有偏見。

糟糕的數據是一方麵。有偏見的數據是另一回事。

數據來自人類。人類往往有偏見。因此,你的數據可能包含不同類型的偏見。當它存在時,AI會做出有偏見的預測。這損害了所有相關人員的利益。

你看,數據可能包含導致現實世界中不利決策或不平等的人類偏見。人工智能試圖利用這些數據進行預測。但當我們使用AI對消費者行為進行預測時,我們通常是在看個人數據。比如人口統計、宗教、種族和其他個人品質,這些都是消費者偏好的信號。

如果這些數據包含對某個特定群體的偏袒或反對,會發生什麼?如果它對不同的群體做出了過時甚至有害的假設呢?如果它甚至根本不考慮某些群體呢?

你的AI係統最終會做出包含這些偏見的預測。

以招聘過程為例,想想這是如何出錯的。

假設一家公司在招聘方麵一直不太多元化。這家公司所有的員工都是白人。

這家公司想要使用人工智能來找到最優秀的員工來招聘。因此,他們收集了過去五年最優秀員工的所有數據。你能想到的一切,包括人口統計數據。

他們訓練機器根據數據識別出表現最好的人。該機器開始標記公司應該審查哪些簡曆,應該拒絕哪些。

機器開始標記所有非白人候選人被拒絕,因為他們缺乏頂級表現者的典型模式:他們看起來不像他們。

機器沒有自我意識。這不是惡意。它隻知道公司給了它什麼信息。機器所知道的是,非白人候選人看起來不像表現最好的人。

這是一個簡單的虛構的例子。但不要認為這不會發生或不可能發生。2019年,蘋果使用人工智能來確定每個申請其信用卡產品的申請人應該獲得多大的信用額度。由於數據存在偏差,最終結果是歧視女性

3.確保你負責任地使用人工智能。

不僅僅是數據的問題。我們也都有責任。

有了AI,我們可以比以往更多地了解消費者。我們可以發現他們的信仰、興趣、恐懼和欲望。我們可以利用這些信息來操縱他們。我們可以對它們的行為做出預測。我們可以以不道德的方式觸發這些行為。

我們必須專注於將這些超能力用於善用。外麵有壞人。組織利用AI走捷徑黑營銷,影響人們的情緒和行為。

相反,我們需要利用這些超能力,為消費者推動個性化和便利性。

如果我們不這樣做,AI可能會走非常錯誤的道路。

如果我們做到了,我們就可以用AI創造出不可思議的東西。

要把AI用在好的地方,我們不能忘記另一端還有人。當我們記住這一點時,我們最終為他人、為自己、為我們的品牌做了好事。

相關的帖子

3個可怕的AI和機器學習出錯的例子

卡爾Al-Dhubaib| 2021年12月13日

當你的公司部署人工智能時,事情可能會出錯。非常非常錯誤的。這篇文章提醒大家,在部署AI技術時,如何避免AI災難。

營銷人員應該害怕人工智能帶來的工作自動化嗎?

麥克壞了的| 2021年4月30日

營銷人員應該害怕人工智能帶來的工作自動化嗎?這篇文章給出了答案。

為什麼營銷人員需要理解AI時代的Predictive vs. Prescriptive

麥克壞了的| 2017年9月14日

理解預測性和規範性係統是釋放人工智能潛力的關鍵。

Baidu
map