26分鍾閱讀

【營銷AI秀:第十集】高級AI編輯談負責任的AI

有特色的圖片

參加我們8月3-5日在俄亥俄州克利夫蘭舉行的年度營銷人工智能會議(MAICON)。

今天注冊!

營銷AI秀這個播客通過讓人工智能變得平易近人和可操作來幫助企業變得更聰明。

你現在可以在你最喜歡的播客應用上收聽,或者繼續閱讀,了解本集的更多內容。

第10集:Karen Hao,麻省理工科技評論,關於負責任的人工智能:倫理,創新,以及從大型科技公司吸取的教訓

在本周的節目中,節目主持人保羅·羅策與高級人工智能編輯凱倫·郝,麻省理工科技評論.這個特別的插曲發生在2021年MAICON期間,當時保羅和凱倫坐在爐邊聊天,討論負責任的人工智能。

在本集節目中,保羅和凱倫探討了人工智能的倫理發展和應用。

根據她廣泛的研究和寫作,Hao提供了:

  • 深入了解大型科技公司的政策和實踐。
  • 你可以利用這些經驗教訓來確保公司的人工智能計劃將人置於利潤之上。
  • 看看接下來會發生什麼,以及負責任的人工智能需要什麼。

時間戳

[00:05:34]凱倫成為奈特科學新聞研究員的細節

[00:14:16]穀歌在人工智能和道德方麵的曆史教訓

[00:31:04]凱倫的《麻省理工科技評論》上關於Facebook的討論

[00:36:56]快速問答


觀看視頻

HubSpot的視頻

閱讀采訪記錄

免責聲明:本文由人工智能編寫,感謝深,

(就是)保羅Roetzer:今天我請來了《麻省理工科技評論》的高級人工智能編輯Karen Hao。凱倫,謝謝你參加我們的節目。很高興再次見到你。

(00:00:14)凱倫郝:非常感謝你邀請我來,保羅。

(00:00:15)保羅Roetzer:是的,當我聯係你的時候,因為對於那些2019年沒有和我們在一起的人來說,凱倫是我們第一次營銷人工智能會議的主題之一,主題是“什麼是人工智能?”

它不僅對我產生了巨大的影響,我喜歡這個演講,而且我們從與會者那裏聽到了很多令人難以置信的反饋。我曾試圖讓凱倫在2020年參加會議。那次會議最終沒有舉行。但後來我回到2021年,說“我們還有機會再做一次嗎?”

她寫了很多令人難以置信的文章,尤其是在去年,關於負責任的人工智能,麵向未來的人工智能。道德的人工智能。這對我們和我們的觀眾來說都是一個非常重要的話題。這就是我們今天想讓凱倫回來討論的問題。所以,凱倫,再次感謝你回來,感謝你為我們社區所做的所有貢獻。

(00:01:03)凱倫郝:是的。非常感謝你熱情的介紹。

(00:01:08)保羅Roetzer:所以我想從——我聽說過你的背景——但你是如何進入人工智能行業的?你為什麼不去做AI,而是去寫AI?首先,你是如何進入人工智能行業的?

(00:01:26)凱倫郝:好吧,為了解釋這一部分,實際上我必須一起回答第二個問題。

我進入新聞行業的經曆有點有趣,因為我最初是一名工程師。我在麻省理工學院讀本科時學的是機械工程當時,我對機械工程著迷的原因是建築的概念;我對利用科技推動社會變革的想法非常著迷。

麻省理工學院有一個令人難以置信的機械工程項目,專注於以用戶為中心的產品設計。如何用產品來改變人們的想法,改變人們的行為,我對此很感興趣。我總是想象著追隨史蒂夫·喬布斯的腳步,或者像他那樣真正了解用戶的人,能夠發明所有這些東西,然後徹底改變了文化,改變了我們消費信息、音樂的方式,所有這些東西。

畢業後,我先在一家軟件初創公司工作。所以我從機械工程的硬件轉向了軟件。我當時非常迷戀這個創業公司因為它是從穀歌X衍生出來的,它專注於建築建築軟件,或者說是城市發展軟件,它可以幫助城市政府優化他們的城市設計和建築設計使其更可持續,更有效地利用資源。

我對可持續發展和氣候變化非常感興趣。經曆了9個月之後,我本以為自己找到了夢想的工作,在一家以使命為導向的科技公司工作,這家公司利用科技推動社會變革,但這家初創公司卻因為沒有真正賺錢而衰落了。

私人投資者很不高興。他們解雇了首席執行官,取而代之的是另一位首席執行官,他應該非常注重商業,幫助我們扭虧為盈。他根本不明白我們在做什麼。完全廢棄了產品,開始到處轉圈。這讓我思考了很多關於矽穀的激勵機製,比如如果我們總是癡迷於季度回報,那麼我們最終會減少或限製我們真正追求長期問題的能力,比如氣候變化,比如扶貧,所有這些非常棘手的問題。從那時起,我進入了新聞行業,開始考慮寫作。

也許我可以把寫作作為社會變革的工具。因為我認為,新聞業以使命為導向,而不是以利潤為導向,可能會更好一些。正是通過從事新聞業,我找到了進入人工智能領域的途徑。所以我成為了一名普通科技記者,我對科技和社會很感興趣,並思考“我們如何真正地讓科技承擔責任,並確保我們為社會變革而發展它?”我經曆過矽穀的缺陷,我想利用一個平台,試著推動矽穀向特定的方向發展,激勵更好的產品,更好的技術,然後從那裏進入人工智能,因為人工智能是如此廣闊。如今,談論科技就很難不提到人工智能。

一旦我在那裏找到了自己的家,我就變得非常非常癡迷於它,因為它是所有我想談論和探索的技術和社會問題的完美縮影。

(00:05:25)保羅Roetzer:自從你被任命為奈特科學新聞項目研究員後我們就沒說過話了。

這是最近才發生的事。

(00:05:34)凱倫郝:這就發生了。所以我提出了這個項目,因為這將是一個關於當今人工智能發展的故事係列,如果我們從全球的角度來看,它真的不是成功地服務於每個人。有很多更富裕的國家,更富有的公司從技術中獲取大量的價值和利潤,但代價是脆弱的社區,脆弱的國家。經濟利益完全被扭曲並集中在已經擁有大量權力和金錢的國家和公司之間。研究員們對此非常興奮。我超級興奮,因為我已經等了兩年了,現在可以寫這個故事係列了。這就是我明年的工作重點。

(00:06:29)保羅Roetzer:好,祝賀你。這太棒了。其實我對獎學金項目並不熟悉。有不熟悉的觀眾嗎?這真的很酷。你知道,我在網站上看到的是,你要調查全球供應鏈,以及它如何經常集中在那些權力掌握在富人、公司和國家手中的國家,而把那些不那麼幸運的人留在那裏。就像你們概述的那樣。我認為這是一個非常重要的背景,這樣人們才能了解你來自哪裏。所以你對技術和它是如何工作的,需要什麼來建造它有深入的了解。

所以當你在做研究和寫作時,你可以批判性地看待,而不僅僅是這些大型科技公司想讓你寫的公關信息,並把這些信息發布出去,希望你能在市場上宣傳他們想要的東西。你可以退後一步,用批判的眼光來看,但這樣好嗎?

比如,這是技術發展的正確道路嗎?這就是為什麼我喜歡你的作品。我認為你在你的文章中對這種技術很樂觀,這是有可能的。就像你所說的,有些事情可能會永遠發生,比如氣候變化、貧困和饑餓。像所有這些事情一樣,它可以幫助做,但它也可能出錯。這也是我今天在這個關於負責任的人工智能的對話中想要集中討論的內容。你和我提前見過麵討論過,我們有不同的觀眾。在我們的社區裏,參加這次會議的人正在開發人工智能技術,你知道,他們可能在風險投資的科技公司工作,或者他們中的一些人實際上在大型人工智能公司工作。

我們有使用人工智能技術的營銷人員。他們可能沒有意識到其中可能存在的偏見,也沒有意識到人工智能可能出現的問題。我們還有一些商業領袖,他們可能不會深入研究人工智能的方方麵麵。但他們正試圖弄清楚如何使用這種新技術來推進他們的業務,推動增長,變得更智能。

所以他們中的很多人真的隻是想弄清楚這些東西,他們不知道他們不知道什麼。這些關於道德和責任的未知數。所以你和我討論的是我們的工作是讓他們關心。即使你隻是在運行你的第一個試點項目,以幫助優化數字廣告支出,或者弄清楚如何更有效地發送電子郵件,現在也是你真正想要考慮你的組織如何以負責任的方式使用人工智能的時候了。所以我認為一個很好的起點是——你如何定義負責任?因為我認為人工智能是好的,負責任的,有道德的。我們看到不同的術語。當你想到負責任的人工智能時,你會想到什麼?

(00:09:06)凱倫郝:我認為負責任的人工智能的核心是減輕傷害和最大化利益。

人們可能已經將AI bias之類的術語視為負責任的AI的同義詞。這是你可以識別人工智能技術所造成的傷害的一個例子,人工智能可能會使歧視永久化,但人工智能係統可能會造成許多其他類型的傷害。

也許它侵犯了你的隱私,也許它錯誤地分類了你的身份,諸如此類。所以當考慮如何真正構建負責任的AI時,你首先必須非常清楚你使用AI的目的是什麼?你想要達到的目標是什麼?它可能出錯的方式是什麼?

它怎麼可能最終讓人們失望,然後你不得不思考,好吧,那麼我可以用什麼方式重新設計這個係統?我能在適當的地方設置什麼護欄來確保它不會發生這種情況?”下一步是,現在我們已經消除或至少最小化了它可能造成的傷害,我們如何最大限度地提高一個係統能帶來的好處?讓這個更具體一點,如果我們談論的是一個人工智能醫療係統,現在有很多工具,人工智能非常擅長檢測癌症病變,一個特定的掃描,醫療掃描,它可能傷害這些病人的一種方式是侵犯隱私。

為了訓練這個人工智能模型,你必須收集大量病人的醫療記錄,如果黑客入侵了這個係統,得到了所有這些病人的私人信息怎麼辦?所以這是一個你必須考慮並盡量減少的傷害另一個傷害是如果這個人工智能係統是歧視性的因為某種原因你隻能得到白人病人的掃描結果,但你不能得到黑人病人的掃描結果?

而且它隻對白人患者有效,最終會加劇我們醫療係統中現有的健康差距。所以這是另一件你需要考慮的事情,你可以用各種方法來減輕它們。

有時它與人工智能係統本身無關。有時是關於網絡安全,確保你有良好的數據基礎設施來保護和防止黑客訪問數據,有時是關於重新設計算法,確保你重新平衡你所擁有的數據,使其不具有歧視性,然後一旦我們考慮為係統最大化利益,就像,好吧,現在讓我們確保醫生正確使用係統。

這是我們從這個係統中獲得利益的最好方式。這就涉及到教育項目,培訓醫生,培訓護士,與病人溝通,讓他們理解並感受到人工智能係統正在評估他們並給他們診斷的事實。它包含了整個開發和部署人工智能技術的管道。

(00:12:30)保羅Roetzer:我認為,從市場營銷的角度來看,你和我之前已經接觸過這個問題,即使你沒有構建它,你也會購買其他人基於一些數據集構建的所有這些工具,因為人工智能要做它所做的事情,它需要數據。因此,作為一個營銷人員,作為一個品牌,就有了盡可能多地獲取數據的動機。

我就不說名字了,一家大型電信運營商剛剛被黑了。不知出於什麼原因,他們仍在收集與客戶賬戶相關的社會安全號碼。我想大概有4千萬張唱片。現在突然之間,營銷人員在這個組織中使用的所有個人數據都在世界上了,它有手機號碼,社會保險號,誰知道還有其他什麼數據。

這可能隻是專有數據,他們捕獲的第一方數據,然後他們可能購買第三方數據來進一步豐富該數據。所以,作為一個營銷人員,要明白,好吧,沒有數據就不會有人工智能。因此,從最基本的意義上講,要在營銷和商業中負責任地使用人工智能,你需要了解數據來自哪裏,以及人工智能如何學習。

所以如果你要去購買一個應用程序工具或內容工具或任何東西,你需要在房間裏有人知道問這些問題,並了解供應商告訴你他們從哪裏獲得數據。

(00:13:51)凱倫郝:是的,當然。我認為這是負責任的人工智能的一個重要方麵,就像,數據來自誰?我們有沒有仔細研究過它是否有意義?提供這些數據的人同意了嗎?他們知道這些數據是如何被使用的嗎?我們如何存儲數據和保護數據?

就像所有這些事情一樣,對負責任的人工智能至關重要。

(00:14:16)保羅Roetzer:我們講過它是如何傷害人們的,它會影響員工。它會影響消費者、你的客戶、你的投資者、你的利益相關者。所以如果你做錯了,就要承擔責任。你知道,很多時候,先例還沒有在法律上設立,但你可能會打開自己的這個網絡安全的例子。

每個人都有潛在的網絡安全風險。這對組織來說隻是時間問題。所以,考慮一下你擁有的數據,這些數據是有責任的,還是你沒有考慮到它可能造成的最終傷害。所以對於很多組織來說,我們把這些大型科技公司作為榜樣。

我知道穀歌有一個道德AI標準。我相信Facebook有。亞馬遜可能有。我知道Adobe有。所以至少每個人都有道德標準。所以你要報道這些大公司。他們想做什麼?穀歌顯然有大量的數據。Facebook擁有海量數據,所有營銷人員都使用這兩種工具。

這兩家公司,要麼做我們做的技術,要麼做我們做的廣告。他們試圖從負責任的立場來對待人工智能?我們一會兒會討論它是否有效,但他們試圖做什麼?

(00:15:35)凱倫郝:好的。我們從穀歌開始。穀歌是一個非常有趣的案例研究。

如果你想想穀歌的使命是什麼,他們試圖,我忘記了確切的口號是什麼,但就像組織世界的信息,本質上幫助用戶檢索相關信息。所以當你使用搜索時,當你使用Gmail時,當你使用他們的廣告工具時,所有這些都是為了以有效的方式向你提供最相關的信息。因此,人工智能實際上是一種完成這項任務的工具。這種人工智能非常非常擅長處理大量信息,並根據可能被認為與用戶相關的不同信號來選擇其中的比特。所以從基本的基礎水平來看,穀歌使用人工智能並不一定是壞事。

就像它是有意義的,它與他們的使命是一致的,它理想地使產品更好,並幫助用戶。這個係統會在哪裏出錯呢?如果你想到信息檢索,事實上我們所知道的所有東西,我們的知識,都是通過穀歌過濾的,那麼你就會開始擔心如果穀歌實際上並沒有為你檢索準確的信息,或者如果穀歌隻是檢索信息的一個特定子集呢?這並沒有給你一個關於某個特定話題的整體情況,這會導致你對某件事有一個非常扭曲的理解或非常扭曲的感知。

這時你就會開始擔心,如果你不設計你的人工智能係統,人工智能將如何參與其中。嗯,這絕對有可能發生。眾所周知,穀歌搜索會為人們檢索錯誤信息,因為如果你輸入“氣候變化是假的嗎?”,你得到的結果會加強你的偏見,而不是當你輸入“氣候變化是真實的嗎?”

有一些例子表明,穀歌的搜索算法會將負麵詞彙與關於黑人女性的搜索聯係起來。就像以前,如果你搜索黑人女性,大部分都會顯示色情內容。而如果你搜索白人女性,可能會顯示時尚。這些都是人工智能所做的聯想,然後它以這些非常非常歧視性的方式檢索信息。

所以穀歌在開始建立他們的道德人工智能團隊時,本質上是想做的,他們的道德人工智能團隊的任務是思考我們的技術可能出錯的不同方式。我們一直在努力改進人工智能幫助我們檢索信息的方式。

他們建立了一個世界級的研究團隊來思考這些問題並對這些問題進行研究。這個團隊有一個非常廣泛的議程。他們沒有必要被告知你必須做這個特定的研究或專注於這個特定的產品。它就像我們部署的任何人工智能技術一樣,你被允許仔細檢查它,然後告訴我們哪裏可能出了問題,以及我們是否需要改變它們。我想好笑的是這個團隊開始這麼做了。當他們開始批評穀歌技術中某些非常非常有利可圖的方麵時,團隊的領導者就被解雇了。

(00:19:21)保羅Roetzer:是的。所以你指的是Timnit Gebru博士,如果我發音正確的話。對營銷人員來說,有趣的是,這與語言模型有關,如果我沒有弄錯的話,凱倫。因此,她和米切爾博士的團隊,兩位道德人工智能團隊的領導者,已經確定了與這些大型語言模型相關的潛在問題,凱倫已經寫了大量關於這些語言模型的文章。但當我們在我的開場白中談到GPT-3,以及機器開始大規模生成語言的能力時,穀歌已經在這個領域取得了一些瘋狂的進步,但要做到這一點,它們需要大量的信息,它們處理大量的數據,你需要消耗大量的計算能力。因此,你能夠用聰明的寫作完成一個句子,最終在穀歌文檔中完成整個段落,最終可能寫出你正在寫的東西的初稿,這是有分支的。

所以,作為一個營銷人員,這聽起來很神奇,但現實是,就凱倫的觀點而言,這是有後果的。因此,格布魯博士的團隊將這些現象公之於眾。然後發生了什麼,凱倫?你說到點子上了,但還有一些其他的事情導致了它,但本質上,這導致了,好吧,也許他們並沒有真正落後於他們聲稱落後的道德人工智能。

(00:20:44)凱倫郝:是的。所以語言模型,我猜,為了提供更多的上下文,穀歌廣泛使用語言模型的方式它出現在智能組合中,正如你提到的,它也是它支撐搜索。你可以輸入幾個關鍵字然後得到一些非常相關的信息的原因是這些語言模型在線處理所有的網頁,處理你的關鍵字搜索,然後匹配本質上是什麼網頁應該排名靠前與你的查詢相關?最初,穀歌搜索並不總是使用語言模型,但他們意識到,通過使用語言模型技術的最新迭代,他們能夠在廣泛的搜索結果中顯著提高搜索的相關性,這意味著廣告收入增加,因為廣告可以更具體地針對用戶。

當時Timnit Gabru博士和Margaret Mitchell博士正在研究這項技術,老實說,這是一項相對新興的技術。他們開始關注這個領域的研究基本上他們甚至沒有做新的研究。他們隻是總結了現有的研究,說這是一項新興技術。

以下是這項技術的一些風險,在我們將其推廣到影響全球數十億用戶和搜索引擎上的信息檢索過程之前,我們真的應該考慮一下。他們提到的一件事是這些模型必須在大量的文本數據上進行訓練,我們甚至不可能再理解文本數據中的內容。

所以他們捕捉到了一些東西,比如真正的辱罵性語言,褻瀆,真正的種族主義和性別歧視的語言,這些語言會產生下遊影響。但這些下遊影響是什麼呢?我們真的不知道。

我們隻知道,在我們用來訓練這些模型的數十億個句子中,所有這些垃圾都被折疊起來了,在某些時候,它可能會傷害用戶,要麼返回真正的種族主義搜索結果,要麼當你使用smart時,compose告訴你用非常辱罵的語言完成一個句子。

有趣的是,他們隻是說,我們應該考慮這個問題。他們什麼也沒說。他們沒說我們該撤貨。他們並沒有說穀歌需要關閉大部分業務,但這足以讓穀歌突然大動肝火,因為搜索是一棵巨大的搖錢樹。

語言模型正在為穀歌的搖錢樹提供動力,一件事導致另一件事,他們試圖發布的論文隻是為了通知公眾和領域,這是人們應該更密切地研究的東西,結果穀歌試圖審查它。

然後隨著事態的升級,兩位聯合負責人格布魯博士和米切爾博士都被解雇了,團隊自此解體。

(00:24:19)保羅Roetzer:如果我沒記錯的話,這是2020年冬天,到2001年1月、2月。這是最近的。再說一遍,我不是要在穀歌上吐槽。

這很難。就像你所說的,正在發生的這些進步是新生的。大部分的能力,語言和視野凱德·梅茨也會在他的主題演講中談到這一點。它們基本上都源於2012年,人們意識到深度學習實際上是可能的。這是一場語言生成、理解、視覺和所有這些東西的競賽,穀歌買下了深刻的思想,買下了Geoff Hinton的公司。

你知道,所有這些都發生在過去的9年裏。所以他們在前進,推進技術,組建團隊來提出難題,但就你的觀點而言,有時這些難題,也許你不問這些難題更好。所以他們並不孤單。

我們為什麼不花點時間談談Facebook呢?你去年寫過一篇文章還是今年早些時候寫的?虛假信息?那是在今年早些時候。它就這樣起飛了。就像我在我的動態中到處看到它一樣,所以從麻省理工科技評論的角度來看,我認為它是病毒式傳播的。也許可以和大家分享一下你寫的關於Facebook的文章的前提。我知道你後來還寫過其他的,但Facebook在試圖建立負責任的人工智能時,發生的關鍵是什麼?

(00:25:45)凱倫郝:是的。讓我們從穀歌開始,再來看看Facebook的使命是什麼,那就是連接全世界的每一個人。

在很早很早的時候,他們就開始將人工智能融入到平台的所有內容中。就像你在Facebook上能想象到的任何事情一樣。這不僅僅是新聞推送的排名方式,你為什麼首先看到某些狗的照片或你朋友的帖子,這都是人工智能的功勞。

甚至當你在Messenger上發消息時,文本數據也會被用來訓練Facebook的人工智能係統;在Instagram上,當你在Facebook上給人和照片加標簽時,文本數據也會被收集起來。當你在照片中與人交談時,所有這些都是人工智能。

(00:26:31)保羅Roetzer:或者不給他們貼上標簽,他們還是能認出來。

所以大概四年前,當這種情況開始發生時,人們會想,它怎麼知道照片裏的人是凱倫?它是人工智能。它無處不在。

(00:26:44)凱倫郝:就像你能想到的一切。現在Facebook上可能沒有一個功能沒有某種人工智能,在後台做一些事情。

他們之所以開始整合它,是因為他們認為,如果我們可以增加平台上的參與度,那麼人們就會在平台上花更多的時間。他們會與更多的人建立聯係。他們會看到更多的群組,他們會喜歡更多的頁麵,我們將成功地連接世界各地更多的人,我想這就是我們的理念。

我們對開始發生的事情有一點了解。所以在2016年,當特朗普政府上台時,科技的抨擊開始了,人們開始質疑,等一下,我們是否天生,比如Facebook是否以某種方式讓新政府上台?

我們在幫助選舉這個人的過程中扮演了什麼角色?關於這個問題有很多問題,人們開始想,等一下,當我們在Facebook上看到朋友和家人的內容時,似乎每個人都在自己的過濾氣泡中。每個人看到的信息都不一樣。

有些人看到了錯誤信息,有些人看到了仇恨言論和其他真正的辱罵內容。那麼這對我們的社會有什麼影響呢?當人們開始思考這些事情時,它又回到了,“Facebook一直在使用人工智能來最大限度地提高平台的參與度,但似乎我們遇到了這個問題,在人工智能最大化參與度的同時,它最終也放大了分裂性內容,因為這是你最大化參與度的方式。”

所以有很多外部研究人員開始呼籲臉書更深入地思考這個問題,臉書在2018年決定,好吧,我們要成立一個負責任的人工智能團隊,還有一個誠信團隊,這是他們試圖減少平台上的不良行為的名字。

他們開始做一些研究,我們是否真的放大了這些信息?我們是否真的在用這些人工智能算法來分化我們的用戶?簡短的回答是肯定的。他們做了這些研究,並確定這種情況確實發生了,但問題是,他們實際上沒有授權負責任的人工智能團隊對此采取任何行動。

相反,他們認為:如果我們擺脫了這些兩極分化的影響,我們就必須讓人們分享不那麼分裂的內容。一旦人們開始分享不那麼分裂的內容,這個平台就不會再那麼吸引人了。

相反,他們要求負責任的人工智能團隊專注於那些不會超出他們底線的事情。他們要求他們關注公平等問題。比如“當我們部署內容審核算法時,它對保守派用戶的影響是否和對自由派用戶的影響一樣大?”

或者“當我們部署我們的照片標簽算法時,它是否能同樣識別白人麵孔和黑人麵孔?”這些都是非常重要的問題,但它完全忽略了這個巨大而根本的問題,這個問題潛伏在他們內部已經確認和驗證過的問題之下。

這和穀歌的情況非常相似;很少有員工真正主動地提出這些棘手的問題,我們揭示了醜陋的答案,並沒有成功地讓領導層采取實際行動。最終他們要麼被趕出公司,要麼自願離開。

(00:31:04)保羅Roetzer:所以這篇文章,我的意思是,這是我見過的最好的標題和預告片之一!這篇文章是Facebook如何沉迷於傳播虛假信息.這篇文章的預告片是,該公司的人工智能算法讓它養成了撒謊和仇恨言論的貪得無厭的習慣。現在,建造它們的人無法解決這個問題。

那是一本很棒的書。我知道你和我都讀過《醜陋的真相》,這是《紐約時報》的兩位作家最近出版的一本書,他們非常非常深入地探討了這個話題。所以,如果Facebook對我們營銷者的工作如此重要,那麼很有可能在座的每個人都在Facebook上花錢以某種方式鎖定用戶,無論是通過類似的廣告,還是通過他們的人口統計和地理定位等等。

你可能會使用人工智能來營銷你的公司。而且你很可能也在你的個人生活中使用它。也許你的孩子正在使用它,這就像,我們必須了解這項技術是如何工作的,這樣你才能了解它的影響。所以我想退一步說,我們能從中學到什麼?

作為營銷人員,作為商業領袖我們能學到什麼?對你來說最重要的是什麼?當我們看穀歌和Facebook時再說一次,我不是要挑穀歌和Facebook,它們都是非常引人注目的案例。他們並不孤單。就像其他大型科技公司有問題一樣,你知道,我認為蘋果和微軟可能會執行他們試圖做的事情,並做得更好。他們有自己的缺點,但他們似乎更有意以道德的方式應用人工智能。

但是,這是普遍的。我們可以對此進行討論。我是一名商業領袖,我是一名營銷人員,我試圖弄清楚我從這次會議中學到了什麼?

對我來說最重要的是什麼?當人們開始在他們的組織中尋找負責任的人工智能時,你認為他們可以從這些失誤中學到什麼?

(00:33:13)凱倫郝:嗯,我認為從這兩個例子中,你可以看到,最初這些公司都有非常合理的目標,將人工智能融入到他們的產品中,最初,沒有辦法真正想象它會出多嚴重的問題。所以我認為,對於現在的營銷人員和商業領袖來說,第一次考慮將人工智能融入到他們的產品中。

你應該提前思考,我想要達到的目標是什麼,人工智能將如何幫助改善這一點?還有一些可能出錯的方式。但是隨著項目的發展,你要不斷地重新審視這個問題。當你越來越多地將人工智能融入到你所做的事情中。Facebook和穀歌的情況是,它們在人工智能革命中處於非常早期的階段,當時還沒有真正發展出一支力量來思考負責任的人工智能。

所以在某種程度上,現在開始的人有一點優勢,他們已經看到了事情可能出錯的方式。他們很早就開始思考這個問題,但你每次都需要繼續重溫這個問題。這不僅僅是思考這些事情。

您還需要將其納入您的關鍵性能指標。你需要將其納入員工的期望,以及當員工考慮人工智能倫理時。他們應該得到獎勵。他們應該受到表揚。當他們提出棘手的問題,而這些問題的答案可能很難看時,他們就應該得到提拔。

你應該為此感到高興。你不應該想,“好吧,我現在要忽略它,繼續推進這個人工智能項目,”你應該考慮我們如何修改這個項目或者我們是否真的需要停止這個項目?即使在短期內,這可能會對我們的底線產生影響,但從長遠來看,這可能是一件好事,因為你不會陷入公關醜聞。

你的品牌不會因此受損,人們、消費者和利益相關者也會更加信任你。所以我認為所有這些都是人們應該開始思考的事情。就像建立流程來思考這些事情,並在其中發揮真正的作用。

(00:35:44)保羅Roetzer:而且,你知道,我以前聽你說過的是這種人高於利益的想法,就像它聽起來很簡單一樣,我認為這就是你的話,必須造福人類,就像我們要做的任何事情都是為了造福人類,造福人民。現在,這就變得困難了。

比如,如果你在一家風投投資的初創公司工作,他們剛剛獲得了2000萬美元的資金,要用人工智能技術籌集4萬美元。你坐在那裏想,好吧,我可以確定5種方式,我們現在可能在走灰色線。你會怎麼做?你有那種聲音嗎?所以,要像格布魯博士和米切爾博士那樣去做很難,要知道你可能會把你的職業生涯置於危險之中,但這就是它所需要的,這一運動要求消費者、投資者和商業領袖負責任的人工智能。

我很高興我們能參加這次會議,你們所做的所有研究都有助於推進這次對話,因為這對我們作為一個行業所做的事情非常重要。

(00:36:53)凱倫郝:非常感謝你讓我講這個,保羅。

(00:36:56)保羅Roetzer:好的。我們還有幾分鍾時間,我想找點樂子,以一些快速提問結束。你在研究和寫作中使用人工智能工具嗎?

(00:37:09)凱倫郝:我做的事。我用穀歌搜索,實際上我也用

推特算法,它將我在推特上關注的所有人在我的信息流中排名。我有點依賴它在人工智能對話中為我提供相關的推文。

(00:37:29)保羅Roetzer:我喜歡這兩個,因為在我的演講中,我談到了人工智能是如何無縫地融入你的生活的。你開始認為事情是理所當然的,這就是營銷行業的發展方向。

這將像Facebook一樣,你在CRM平台上接觸的所有東西都在某種程度上具有人工智能。我們現在還沒有成為一個產業,但穀歌搜索絕對是人工智能和Twitter算法以及YouTube算法的一個例子。和Facebook。如果沒有人工智能,所有這些都不存在。這很酷。

好的。當你向非技術人員解釋人工智能時,你如何去神秘化它?

(00:38:02)凱倫郝:我試著告訴他們,這是花哨的統計數據或花哨的數學。就像你有一大堆數據,你需要找出這些數據之間的關係。所以你有一些奇特的數學機器,它會梳理數據,找到模式,然後用這些模式在未來做出決定。

(00:38:23)保羅Roetzer:我喜歡它。我們有時可以借它。好吧,你日常生活中最喜歡的人工智能的例子,大多數消費者都認為是理所當然的,甚至沒有意識到這是由人工智能實現的?

(00:38:34)凱倫郝:我的Netflix推薦算法。

(00:38:38)保羅Roetzer:有沒有哪個節目是用這個算法推薦給你的,你本來不會看的,你會覺得“這很管用”?

我的是太空的。有人推薦我拍紀錄片和太空片。所以我發現了所有這些很酷的東西,除非我去搜索那個特定的主題,但人工智能、紀錄片和太空是那些不斷出現在我推薦中的東西,它們一直吸引著我。

(00:39:04)凱倫郝:這是個很好的問題。

我正要說我看的最後一部電影,但我意識到那是我的亞馬遜prime推薦算法。但這是一部獲得奧斯卡獎的電影。我看了很多獲獎電影。所以我想我最終得到了越來越多的獲獎電影的推薦。我看了《邁阿密一夜》(One Night in Miami),這是一部根據真實故事改編的曆史劇,主角是穆罕默德·阿裏(Muhammad Ali)、馬爾科姆·艾克斯(Malcolm X)和另外兩個我現在不記得名字的人,他們碰巧在邁阿密的一個晚上相遇。它就像一個很酷的,虛構的曆史時刻的再現。

(00:39:52)保羅Roetzer:因此,亞馬遜Prime和Netflix都得到了它;Disney+,所有的媒體平台都在這麼做。

關於人工智能,你最擔心的是什麼?它會出什麼問題?

(00:40:05)凱倫郝:事實上,我認為現在很多公眾仍然被困在這個領域,他們認為自己沒有真正的機構來塑造人工智能的未來。首先,我不認為這是真的。

我認為每個人都可以參與到這項技術未來的發展中來。我認為參加這次會議是開始這樣做的一種方式。我隻是擔心,如果人們不參與共同創造這項技術,那麼我們最終會得到對我們沒有好處的技術。

比如,當隻有一小部分人決定在這些係統中嵌入什麼價值觀,以及它們要優化做什麼時,它將如何使我們受益。所以我隻是希望更多的人能真正投入到這項技術中來。

(00:41:04)保羅Roetzer:所以你顯然要花很多時間研究潛在的不利因素,或者現有的不利因素,但你也能在最前排看到創新,也許會知道接下來會發生什麼,能做什麼。那麼人工智能最讓你興奮的是什麼?

(00:41:19)凱倫郝:我認為人工智能在醫療教育、科學發現等方麵有很大的潛力。這是最令人興奮的領域之一,就像藥物發現,材料發現,天體物理學,理解宇宙,以及真正大的計算密集型問題,如氣候建模和使用氣候建模來幫助減輕氣候變化的一些影響。

所有這些都是人工智能非常令人興奮的應用。我隻是希望有更多的人致力於這些項目,因為並不是所有的項目都有利可圖。

(00:41:56)保羅Roetzer:是的。一個很酷的例子是Demis Hassabis與DeepMind的團隊和Alpha Fold項目,他們可以預測蛋白質的折疊。

再說一遍,我不會假裝知道這一切是如何運作的,但我知道的是,它為新藥物的開發打開了大門,生命科學的重大進步,因為他們開放了所有東西的來源。所以,我們又回到了,是的,穀歌有失誤,但穀歌買了深刻的思想。

穀歌的資源使De伟德bv885mis的團隊能夠取得這些飛躍,從而影響氣候變化、健康和所有其他事情。所有這些事情總會有好的一麵和壞的一麵。好吧,我們有點準時了,所以我隻想問最後一個問題,比如,你想給我們的觀眾留下什麼?

在花了這麼多時間研究這些東西、寫這些東西、思考這些東西之後,當這些技術專家、營銷人員、商業領袖繼續思考負責任的人工智能時,你想留給他們什麼呢?

(00:43:00)凱倫郝:隻是人工智能並不可怕。這並不複雜。我認為總有這樣的看法,哦,太專業了。我不會理解的。

我保證你隻需要花一點點時間。你會意識到人工智能是非常簡單的,我希望你能感覺到有能力去做這件事,因為我們需要更多的人思考人工智能,思考它的未來,思考如何確保它能幫助人們。

所以,是的,這並不可怕。這並不複雜。跳進去吧。

(00:43:37)保羅Roetzer:你可以回頭看看她第一年的“什麼是人工智能”演講,學習基礎知識,並意識到它並不是那麼抽象。凱倫,我很感激你能來。我喜歡你的作品。我迫不及待地想繼續讀你的研究報告,尤其是有了新獎學金。

那將會很神奇。所以,感謝你們所做的一切,感謝你們成為這次活動的一部分,感謝你們成為我們社區的一部分。

凱倫郝:非常感謝你,保羅。

保羅Roetzer:好的。好了,這堂課就到這裏。感謝大家的到來,並期待在活動結束後與大家暢談。再次感謝。

相關的帖子

cmo的AI: Andrea Brimmer, Ally

凱茜。麥克菲利普| 2022年6月30日

Andrea Brimmer, Ally的首席營銷和公關官,是Paul Roetzer的Marketing AI Show播客的嘉賓。

[營銷人工智能秀:第7集]如何利用對話式人工智能來加速收入

熱門的年輕| 2022年6月30日

在Marketing AI Show的一個新的播客節目中,探索如何使用對話營銷來推動更快關閉的管道。

首席營銷官的AI: John Dougherty, Brighton Jones

凱茜。麥克菲利普| 2022年6月30日

John Dougherty, Brighton Jones的首席營銷官,與Paul Roetzer一起做客Marketing AI Show播客。

Baidu
map