26分鍾閱讀

[營銷AI秀:第10集]高級AI編輯談論負責任的AI

有特色的圖片

參加我們8月3-5日在俄亥俄州克利夫蘭舉行的年度營銷AI會議(MAICON)。

今天注冊!

營銷AI顯示該播客通過讓人工智能變得平易近人和可操作來幫助企業更聰明地發展。

你現在可以在你最喜歡的播客應用上收聽,或者繼續閱讀本集內容。

第10集:Karen Hao,麻省理工科技評論,負責任的人工智能:倫理,創新,以及從大型科技公司學到的教訓

在本周的節目中,節目主持人保羅·羅策爾與高級人工智能編輯凱倫·郝進行了對話,麻省理工學院技術評論.本期特別節目發生在2021年MAICON期間,保羅和凱倫坐在爐邊聊天,討論負責任的人工智能。

在本集中,保羅和凱倫探討了人工智能的倫理發展和應用。

根據她廣泛的研究和寫作,郝琳提出:

  • 深入了解主要科技公司的政策和做法。
  • 你可以利用這些經驗教訓來確保公司的人工智能計劃將人置於利潤之上。
  • 看看接下來會發生什麼,以及負責任的人工智能需要什麼。

時間戳

[00:05:34]凱倫成為奈特科學新聞研究員的細節

[00:14:16]穀歌的人工智能和倫理史上的一堂課

[00:31:04]凱倫的《麻省理工科技評論》關於Facebook的討論

[00:36:56]快速問答


觀看視頻

HubSpot的視頻

閱讀采訪記錄

免責聲明:本轉錄是由人工智能寫的,感謝深,

(就是)保羅Roetzer:今天我請到了《麻省理工科技評論》AI高級編輯Karen Hao。凱倫,謝謝你和我們在一起。很高興再次見到你。

(00:00:14)凱倫郝:非常感謝你邀請我來這裏,保羅。

(00:00:15)保羅Roetzer:是的,當我聯係到你的時候,因為對於那些在2019年沒有和我們在一起的人來說,凱倫是我們第一屆營銷AI會議的主題之一,“什麼是AI?”

它不僅對我產生了巨大的影響,我喜歡這個演講,而且我們從與會者那裏聽到了很多令人難以置信的反饋。我曾試圖讓凱倫在2020年來參加我們的會議。但會議最終沒有召開。但後來我又聯係到2021年,說:“我們還有機會再做一次嗎?”

她剛剛寫了很多令人難以置信的文章,尤其是去年關於負責任的人工智能,為善的人工智能。道德的人工智能。這對我們和我們的觀眾來說都是一個非常重要的話題。這就是我們今天想請凱倫回來討論的問題。所以,凱倫,再次感謝你回來,感謝你為我們社區做出的所有貢獻。

(00:01:03)凱倫郝:是的。非常感謝您的熱情介紹。

(00:01:08)保羅Roetzer:我想從——我聽說過你的背景——但你是怎麼進入人工智能行業的?你是如何開始寫AI而不是創造AI的?首先,你是如何進入人工智能行業的?

(00:01:26)凱倫郝:為了解釋這一部分,我得先回答第二個問題。

所以我進入新聞行業的旅程有點有趣,因為我實際上是從工程師開始的。我在麻省理工學院讀的本科是機械工程當時,我對機械工程著迷的原因是建築的概念;我對利用科技推動社會變革的想法非常感興趣。

麻省理工學院有一個令人難以置信的機械工程項目,非常專注於以用戶為中心的產品設計。如何用產品來改變人們的想法,改變人們的行為,我對此很感興趣。我總是想象著跟隨史蒂夫·喬布斯的腳步或者像他那樣真正理解用戶的人,能夠發明所有這些東西然後完全改變了文化,改變了我們消費信息,音樂的方式,所有這些東西。

畢業後,我先在一家軟件初創公司工作。所以我從機械工程的硬件方麵轉向了軟件方麵。我當時非常喜歡這家創業公司因為它是從穀歌X衍生出來的,它專注於建築軟件,或者說是城市發展軟件幫助城市政府優化他們的城市設計和建築設計使其更可持續,更有效地利用資源。

我對可持續發展和氣候變化非常感興趣。在這段經曆的九個月裏,我以為自己找到了理想的工作,在一家非常有使命感的科技公司工作,這家公司用技術來推動社會變革,但這家初創公司卻衰落了,因為它並沒有真正賺錢。

私人投資者非常不高興。他們解雇了首席執行官,換了另一個首席執行官,他應該是非常注重商業的,並幫助我們實現盈利。他根本不明白我們在做什麼。完全放棄了這個產品,開始四處轉圈。這讓我思考了很多關於矽穀的激勵機製,比如如果我們總是執著於每季度的回報,那麼我們最終就會減少或限製我們真正追求長期問題的能力比如氣候變化,比如扶貧,所有這些非常棘手的問題。就在那時,我進入了新聞行業,開始考慮寫作。

也許我可以把寫作作為社會變革的工具。因為我認為,新聞業應該更注重使命而不是利潤。正是通過從事新聞業,我找到了進入人工智能領域的道路。所以我成為了一名普通的科技記者,我對科技和社會很感興趣,並思考“我們如何讓科技負起責任,並確保我們為社會變革發展科技?”我經曆過矽穀的缺陷,我想用一個平台來推動矽穀向特定的方向發展,以激勵更好的產品,更好的技術,然後從那裏進入人工智能,因為人工智能是如此廣闊。如今,談論技術就不能不談人工智能。

一旦我在那裏找到了我的家,我就變得非常非常著迷,因為它是所有我想談論和探索的科技和社會問題的完美縮影。

(00:05:25)保羅Roetzer:自從你被任命為奈特科學新聞項目獎學金學生後我們就沒說過話了。

這是最近才發生的事。

(00:05:34)凱倫郝:剛剛發生。所以我提出了這個項目,因為它將是一個關於當今人工智能發展的係列故事,如果我們從全球的角度來看,它真的不是成功地服務於每個人。有很多更富有的國家,更富有的公司從技術中獲取了大量的價值和利潤,但卻以弱勢群體和弱勢國家為代價。經濟利益完全被扭曲,集中在那些已經擁有大量權力和金錢的國家和公司身上。研究員們對此非常興奮。我非常激動,因為我已經等了兩年了,終於可以寫這個係列故事了。這就是我下一年的工作重點。

(00:06:29)保羅Roetzer:好,祝賀你。這太棒了。其實我對獎學金並不熟悉。有不熟悉的觀眾嗎?這是很酷的。你知道,我在網站上看到的是你要調查全球供應鏈,以及它如何經常集中在權力掌握在富人、公司和國家手中的國家,而離開不那麼幸運的人。就像你概述的那樣。我認為這是一個非常重要的背景,這樣人們才能理解你來自哪裏。所以你對這項技術,它是如何工作的,建造它需要什麼有深入的了解。

所以當你在做研究和寫作的時候,你可以批判性地看待,而不僅僅是這些大型科技公司想讓你寫的公關信息,把這些信息發布出去,希望你吹噓他們想在市場上發布的東西。你可以退後一步,用批判的眼光看問題,但這好嗎?

比如,這是技術發展的正確道路嗎?這就是為什麼我喜歡你的作品。我認為你對你寫作中提到的技術很樂觀,這是有可能的。就像你說的,有些事情可以永遠發生,比如氣候變化、貧困和饑餓。就像所有這些事情一樣,它可以起到幫助作用,但它也可能出錯。這也是我今天在這個關於負責任的人工智能的對話中想要關注的。你和我提前見過麵,我們有不同的觀眾。在這個會議上,我們的社區中有一些人正在開發人工智能技術,你知道,他們可能在風險投資的科技公司工作,或者他們中的一些人實際上在大型人工智能公司工作。

我們有使用人工智能技術的營銷人員。他們可能沒有意識到其中可能存在的偏見或可能出現的問題。然後我們會有商業領袖,他們可能不會深入了解人工智能的所有細節。但他們正試圖弄清楚如何使用這項新技術來推進他們的業務,推動增長,更聰明地發展。

所以他們中的很多人真的隻是想弄清楚這些東西,他們不知道他們不知道什麼。這些關於道德和責任的未知。所以你和我討論的是我們的工作是讓他們關心我們。即使你隻是在運行你的第一個試點項目,以幫助優化數字廣告支出,或弄清楚如何更有效地發送電子郵件,現在是你真正想要思考的時候,你的組織將如何以負責任的方式使用人工智能。因此,我認為一個很好的起點是——如何定義負責任?因為我認為人工智能是好的,負責任的,有道德的。我們看到不同的項。當你想到負責任的人工智能時,你會想到什麼?

(00:09:06)凱倫郝:我認為負責任的人工智能的核心是減少傷害和最大化利益。

人們可能已經將AI bias等術語視為負責任的AI的同義詞。這是你可以從人工智能技術中識別出的傷害的一個例子,人工智能可以使歧視延續下去,但還有許多其他類型的傷害,人工智能係統可以潛在地延續下去。

也許它侵犯了你的隱私,也許它錯誤地分類了你的身份,諸如此類。所以當思考如何真正構建負責任的AI時,你首先必須非常清楚你使用AI的目的是什麼?你的目標是什麼?有哪些可能出錯的地方?

它怎麼可能最終讓人們失望然後你就會想,好吧,那我可以用什麼方式重新設計這個係統?我能在適當的地方設置什麼護欄來確保它不會那樣做?”下一步是,既然我們已經消除或至少最小化了係統可能造成的傷害,我們如何最大化係統所能帶來的好處?讓這變得更具體一點,如果我們談論的是像人工智能醫療係統這樣的東西,現在有很多工具,人工智能非常擅長檢測癌症病變,一個特定的掃描,醫療掃描,它可能會通過侵犯隱私對這些患者造成潛在傷害。

為了訓練這個人工智能模型,你必須積累大量的患者醫療記錄,如果黑客入侵了這個係統,得到了所有這些患者的私人信息呢?這是你必須考慮並最小化的一個危害另一個危害是如果這個人工智能係統具有歧視性因為出於某種原因你隻能從白人病人那裏得到掃描結果,但你不能從黑人病人那裏得到掃描結果呢?

然後它隻在白人病人身上起作用它最終會加劇我們醫療係統中現有的健康差異。這是你需要考慮的另一件事,你可以通過不同的方法來緩解它們。

有時它與人工智能係統本身無關。有時是關於網絡安全,確保你有良好的數據基礎設施來保護和防止黑客訪問數據,有時是關於重新設計算法,確保你重新平衡你擁有的數據,使它不具有歧視性,然後一旦我們考慮到係統的利益最大化,就像,好吧,現在讓我們確保醫生正確使用係統。

這是我們從這個係統中獲益的最好方式。這就涉及到教育項目,培訓醫生,培訓護士,與病人溝通,讓他們理解並感受到人工智能係統正在評估他們並給他們診斷的事實。它包含了人工智能技術的整個開發和部署過程。

(00:12:30)保羅Roetzer:我認為從市場營銷的角度來看,你和我之前也接觸過這個問題,這是一個想法,即使你不建造它,你也會購買所有這些別人基於一些數據集建造的工具,因為人工智能要做它所做的,它需要數據。因此,作為一個營銷人員,作為一個品牌,有這樣的動機去獲取盡可能多的數據。

我就不說名字了,一家大型電信運營商剛剛被黑了。不管出於什麼原因,他們仍然在收集與客戶賬戶相關的社會安全號碼。我想大概有四千萬張唱片。現在突然之間,所有這些營銷人員在這個組織中使用的個人數據都在世界上了它包括手機號碼,社會安全號碼,誰知道還有什麼其他數據。

這可能隻是專有數據,他們捕獲的第一方數據,然後他們可能購買第三方數據來進一步豐富數據。所以,作為一個營銷人員要明白,沒有數據人工智能就不會發生。因此,從最基本的意義上講,要在營銷和商業中負責任地使用人工智能,你需要了解數據來自哪裏以及人工智能如何學習。

因此,如果你要購買一個應用工具或內容工具或其他工具,你需要有人在房間裏知道問這些問題並理解供應商告訴你他們從哪裏獲得數據的人。

(00:13:51)凱倫郝:是的,當然。我認為這是負責任的人工智能的一個重要方麵,就像,數據來自誰?我們真的看過它是否有意義嗎?提供這些資料的人同意嗎?他們知道數據是如何被使用的嗎?我們如何存儲數據和保護數據?

所有這些都是負責任的人工智能的關鍵。

(00:14:16)保羅Roetzer:我們講了一點它是如何傷害人們的,它會影響員工。它可以影響消費者,你的客戶,你的投資者,你的利益相關者。所以如果你在這方麵犯了錯誤,你就要承擔責任。你知道,很多時候先例還沒有建立在法律上,但你可能會打開你自己的這個網絡安全的例子。

每個人都有潛在的網絡安全風險。這對公司來說隻是時間問題。所以,想想你擁有的數據,是這些數據的責任,還是你沒有考慮到它可能造成的最終傷害。所以對於很多組織來說,我們把這些大型科技公司作為一個例子。

我知道穀歌有一個道德人工智能標準。我相信Facebook有。亞馬遜可能有。我知道Adobe有。所以至少每個人都有道德標準。所以你要報道這些大公司。他們想做什麼?穀歌顯然有大量數據。Facebook擁有大量的數據,所有的營銷人員都在使用這兩個工具。

這兩家公司,要麼用我們做的技術做廣告,要麼用我們做的活動。他們試圖從負責任的立場來對待人工智能,做了什麼?我們一會兒會討論它是否有效,但他們試圖做什麼?

(00:15:35)凱倫郝:好的。我們從穀歌開始。穀歌是一個非常非常有趣的研究案例。

如果你想一下穀歌的使命是什麼,他們試圖,我忘了確切的口號是什麼,比如組織世界上的信息,基本上幫助用戶檢索相關信息。所以當你使用搜索時,當你使用Gmail時,當你使用他們的廣告工具時,所有這些都是試圖以一種有效的方式向你傳遞最相關的信息。因此,人工智能實際上是完成這一任務的敲門磚。人工智能非常非常擅長處理大量的信息,並根據可能被認為與用戶相關的不同信號選擇其中的部分。所以從基本基線來看,穀歌使用人工智能並不一定是壞事。

就像它是有意義的,它與他們的使命一致,它理想地使產品更好,並幫助用戶。這個係統會出什麼問題?如果你想到信息檢索我們所知道的,我們的知識,都是通過穀歌過濾的,那麼你就會開始擔心穀歌實際上並沒有為你檢索準確的信息,或者穀歌隻是檢索特定的信息子集呢?這不是給你一個特定話題的全貌,導致你對某事有一個非常扭曲的理解,或非常扭曲的認知。

如果你不設計你的AI係統,你就會開始擔心AI會如何參與其中。嗯,這絕對有可能發生。曾經有過穀歌搜索為人們檢索錯誤信息的例子,因為如果你輸入“氣候變化是假的嗎?”,你得到的結果會加強你的偏見,而當你輸入“氣候變化是真實的嗎?”

有一些例子表明,穀歌的搜索算法會將負麵詞彙與關於黑人女性的搜索聯係起來。就像以前,如果你搜索黑人女性,大部分都是色情片。而如果你搜索白人女性,可能會顯示時尚。這些都是人工智能做出的聯想,然後它以這些非常非常歧視性的方式檢索信息。

所以當穀歌開始建立他們的道德人工智能團隊時,他們的道德人工智能團隊的任務是思考我們的技術可能出錯的不同方式。我們一直在努力改進人工智能幫助我們檢索信息的方式。

他們成立了一個世界級的研究團隊專門研究這些問題並對這些問題進行研究。這個團隊有一個非常廣泛的議程。他們沒有必要被告知你必須做這個特定的研究或專注於這個特定的產品。它就像我們部署過的任何人工智能技術一樣,你可以仔細檢查它,然後告訴我們哪裏可能出了問題,以及我們是否需要改變它們。我想關鍵是這個團隊開始這麼做了。當他們開始批評穀歌技術中某些非常非常有利可圖的方麵時,團隊的領導就被解雇了。

(00:19:21)保羅Roetzer:是的。你指的是提姆尼特·格布魯博士,如果我沒念錯的話。對營銷人員來說,有趣的是,這與語言模式有關,如果我沒弄錯,凱倫。因此,她和米切爾博士的團隊,倫理人工智能團隊的兩名負責人,已經發現了與這些大型語言模型相關的潛在問題,凱倫已經寫了大量關於這些模型的文章。但當我們在我的開場白中談到GPT-3,以及機器開始大規模生成語言的能力時,穀歌在這方麵已經取得了一些驚人的進步,但要做到這一點,它們需要吸收大量的信息,處理大量的數據你需要消耗大量的計算能力。所以,你能否用巧妙的寫作完成一個句子,最終能否在穀歌文檔中完成整個段落,最終能否寫出你正在寫的東西的初稿,都是有影響的。

作為一個營銷人員,這聽起來很神奇,但現實是,正如凱倫所說,這是有後果的。因此,格布魯博士的團隊將這些問題公之於眾。然後發生了什麼,凱倫?你說到點子上了,但還有一些其他的事情導致了這一點,但從本質上說,這導致了,好吧,也許他們並沒有真正落後於他們聲稱落後的道德人工智能。

(00:20:44)凱倫郝:是的。所以語言模型,我想,為了提供更多的上下文,穀歌廣泛使用語言模型的方式它出現在智能合成中,就像你提到的,它也支持搜索。所以你能輸入幾個關鍵詞然後得到一些非常相關的信息的原因是因為這些語言模型正在處理所有在線的網頁,處理你的關鍵詞搜索然後匹配本質上他們應該排在前麵的哪些網頁是與你的查詢相關的?最初,穀歌搜索並不總是使用語言模型,但他們意識到,通過使用最新迭代的語言模型技術,他們能夠在廣泛的搜索結果中顯著增加搜索的相關性,這意味著廣告收入增加,因為這樣廣告就可以更明確地針對用戶。

當時,Timnit Gabru博士和Margaret Mitchell博士正在研究這項技術,說實話,這是一項相對新興的技術。他們開始研究這個領域的研究但實際上他們甚至沒有做新的研究。他們隻是總結了現有的研究稱這是一項新興技術。

在我們將這項技術推廣到影響全球數十億用戶和搜索引擎上的信息檢索過程之前,我們真的應該考慮一下這項技術的一些風險。他們提到的其中一件事是這些模型必須經過大量文本數據的訓練,我們甚至不可能再理解文本數據中的內容。

所以他們捕捉到了一些侮辱性的語言,褻瀆,種族主義和性別歧視的語言,這些語言會產生下遊影響。但這些下遊影響是什麼呢?我們真的不知道。

我們隻知道,在我們用來訓練這些模型的數以億計的句子中的某個地方,所有這些垃圾都被折疊起來了,在某種程度上,它可能會傷害用戶,要麼返回真正的種族主義搜索結果,要麼當你使用智能合成,告訴你用真正的辱罵語言完成一個句子。

有趣的是,他們隻是說,我們應該考慮一下。他們什麼也沒說。他們沒說我們要下架產品。他們沒有說穀歌需要關閉大部分業務,但這足以讓穀歌突然大動肝火,因為搜索是一棵巨大的搖錢樹。

語言模型為穀歌的搖錢樹提供了動力,一件事導致了另一件事,他們試圖發布的論文隻是為了通知公眾和領域這是人們應該更仔細地研究的東西,穀歌試圖審查它。

然後隨著事態的升級,兩位共同負責人格布魯博士和米切爾博士都被解雇了,團隊從那時開始就分崩離析了。

(00:24:19)保羅Roetzer:這是2020年冬天,如果我沒記錯的話,到2001年1月2月。這是最近的。再說一次,這並不是說穀歌是垃圾。

這是很難的。就像正在發生的是這些進步,正如你所說的是新生的。大部分的能力,語言和視野凱德·梅茨也會在他的主題演講中談到這一點。它們基本上都源於2012年,人們意識到深度學習實際上是可能的。正是這種語言生成、理解能力、視野和所有這些東西的競賽,穀歌才買下了深邃的頭腦,買下了Geoff Hinton的公司。

你知道,所有這些都是在過去的9年裏發生的。所以他們在不斷前進,推進技術,組建團隊去問那些棘手的問題,但就你的觀點來說,有時候那些棘手的問題,你最好還是不要問。所以他們並不孤單。

為什麼我們不花點時間談談Facebook呢?你去年寫過一篇文章還是今年早些時候寫的?造謠的?那是在今年早些時候。它剛剛起飛。就像我在我的動態中看到的那樣,所以從麻省理工科技評論的角度來看,我認為它是病毒式傳播的。也許和大家分享一下你寫的關於Facebook的文章的前提。我知道在那之後你還寫了其他的文章,但Facebook發生的事情的關鍵是什麼?因為他們也應該試圖構建負責任的人工智能。

(00:25:45)凱倫郝:是的。讓我們從穀歌開始的地方開始讓我們考慮一下Facebook的使命是什麼,那就是連接世界各地的每個人。

在很早很早的時候,他們就開始將人工智能融入到平台的所有內容中。就像你能想到的任何你可以在Facebook上做的事。這不僅僅是廣告新聞推送的排名方式,你為什麼會先看到某些狗狗的照片或你朋友的帖子,這都是人工智能。

甚至當你在Messenger上發消息時,文本數據也會被用於訓練Facebook的人工智能係統,當你在Facebook上給人和照片加標簽時,也會被用於訓練Instagram上的人工智能係統。當你和照片中的人交談時,所有這些都是人工智能。

(00:26:31)保羅Roetzer:或者不標記它們,它們還是認出了它們。

大概四年前,當這種情況開始發生時,人們會問,它怎麼知道照片裏的是凱倫?它是人工智能。它無處不在。

(00:26:44)凱倫郝:就像你能想到的一切。現在Facebook上可能沒有一個功能是沒有某種人工智能的,在後台做一些事情。

他們之所以這麼做,是因為他們認為,如果我們能增加平台的參與度,人們就會花更多的時間在這個平台上。他們會與更多的人建立聯係。他們會看到更多的群組,他們會喜歡更多的頁麵,我們會成功地連接世界各地更多的人,我想這就是我們的理念。

我們對開始發生的事情略知一二。所以在2016年的時候,當特朗普政府在那裏就職的時候,技術抨擊開始了,人們開始質疑,等一下,我們是否與生俱來,比如Facebook是否在某種程度上幫助了這個新政府上台?

我們在幫助選舉這個人的過程中扮演了什麼角色?關於這個問題有很多問題,人們開始想,等一下,當我們在Facebook上看到朋友和家人的內容時,似乎每個人都在自己的過濾氣泡中。每個人看到的信息都不一樣。

有些人看到的是錯誤信息,有些人看到的是仇恨言論和其他侮辱性內容。那麼這對我們的社會有什麼影響呢?當人們開始思考這些事情時,它又回到了,“Facebook一直在使用這種人工智能來最大化平台上的參與度,但似乎我們遇到了這樣的問題,即在人工智能最大化參與度的同時,它也最終放大了分裂性內容,因為這是最大化參與度的方式。”

所以有很多外部的研究人員開始呼籲Facebook更深入地思考這個問題,Facebook在2018年決定,好吧,我們將成立一個負責任的AI團隊和一個誠信團隊,這是他們的名字,試圖減少平台上的不良行為。

他們開始做一些研究,我們是否真的在放大這些信息?我們真的在用我們使用的人工智能算法分化我們的用戶嗎?簡短的回答是肯定的。他們做了這些研究,他們確定這種情況確實發生了,但問題是,他們實際上沒有授權負責的人工智能團隊對此采取任何行動。

相反,他們認為:如果我們擺脫了這些兩極分化的影響,我們將不得不讓人們分享更少分裂的內容。一旦人們開始分享不那麼有爭議的內容,這個平台就不再那麼吸引人了。

相反,他們要求負責任的AI團隊專注於那些不會觸及他們底線的事情。他們要求他們關注公平等問題。比如“當我們部署內容審核算法時,它對保守派用戶的影響是否和對自由派用戶的影響一樣大?”

或者“當我們部署我們的照片標記算法時,它是否能同樣識別白人麵孔和黑人麵孔?”這些都是非常重要的問題,但它完全忽略了潛藏在他們內部已經確認和驗證的巨大的基本問題。

這和穀歌的情況非常非常相似;很少有員工真正積極地試圖問這些棘手的問題,而我們披露的醜陋答案並沒有成功地讓領導層采取任何實際行動。最終,他們要麼被趕出公司,要麼自願離開。

(00:31:04)保羅Roetzer:所以這篇文章,我的意思是,它是我見過的最好的標題和預告片之一!這篇文章是Facebook是如何沉迷於傳播虛假信息的.這篇文章的逗趣之處是,該公司的人工智能算法讓它對謊言和仇恨言論有了永不滿足的習慣。現在,建造它們的人無法解決這個問題。

這是一本很棒的書。我知道你和我都讀過《醜陋的真相》,這是一本最近出版的書,由《紐約時報》的幾位作家撰寫,他們非常非常深入地探討了這個話題。因此,如果Facebook對我們作為營銷人員所做的事情如此重要,那麼在座的每個人都很有可能在Facebook上花錢以某種方式鎖定用戶,無論是通過相似的廣告還是通過,你知道的,他們的人口統計和地理定位等等。

你可能會使用人工智能來營銷你的公司。你肯定也會在你的個人生活中用到它。也許你的孩子正在使用它,我們必須了解這項技術是如何工作的,這樣你才能了解它的影響。所以我想退一步說,我們能從中學到什麼?

那麼作為營銷人員,作為商業領袖我們能學到什麼呢?對你來說最重要的是什麼?當我們看穀歌和Facebook時再說一次,我不想挑穀歌和Facebook的問題,它們是這方麵非常引人注目的案例。他們並不孤單。就像其他大型科技公司有問題一樣,我認為蘋果和微軟可能會執行他們嚐試做的事情,並做得更好一點。他們有自己的缺點,但他們似乎更有意以道德的方式應用人工智能。

但同樣,這是普遍的。我們可以討論一下。我是一個商業領袖,我是一個市場營銷人員,我想弄清楚我能從這次會議中學到什麼?

對我來說最重要的是什麼?當人們開始在他們的組織中尋找負責任的人工智能時,你認為他們能從這些失誤中學到什麼?

(00:33:13)凱倫郝:嗯,我認為從這兩個例子中,你可以看到,最初這些公司都有非常合理的目標,將人工智能融入到他們的產品中,最初,沒有可能真正想到它會出多大的問題。所以我認為,對於今天的營銷人員和商業領袖來說,第一次考慮將人工智能融入到他們的產品中。

你應該提前考慮,有哪些危害我想要達到什麼目的,人工智能將如何幫助增強這些危害?還有可能出錯的地方是什麼。但是,隨著項目的發展,要繼續回顧這個問題。當你越來越多地將人工智能融入到你所做的事情中。Facebook和穀歌的情況是,它們處於人工智能革命的早期,當時還沒有真正發展出一股力量來思考負責任的人工智能。

所以在某種程度上,現在開始的人有一點優勢,他們已經看到了事情可能出錯的方式。他們很早就開始思考這個問題,但你確實需要每次都繼續回顧這個問題。這不僅僅是關於思考這些事情。

您還需要將此納入到您的關鍵性能指標中。你需要把它納入員工的期望中,當員工考慮人工智能倫理時。他們應該得到獎勵。他們應該受到表揚。當他們提出尖銳的問題,而這些問題可能會得到醜陋的答案時,他們應該得到提拔。

你應該為此感到高興。你不應該想,“好吧,我現在要忽略它,繼續向前推進這個AI項目,”你應該思考我們如何修改這個項目,或者我們是否需要真正終止這個項目?即使這可能在短期內對我們的底線有影響,但從長期來看,這可能是一件好事,因為你不會陷入公關醜聞。

你的品牌不會因此受損,人們、消費者和利益相關者也會更加信任你。所以我認為所有這些都是人們應該開始思考的事情。就像建立思考這些事情的過程一樣有真正的作用。

(00:35:44)保羅Roetzer:你知道,我以前聽你說過的是人高於利益的想法,就像聽起來很簡單擁有北極星,我認為這是你的話,必須造福人類,就像我們要做的任何有益於重要的人類的事,人民。這就是問題的症結所在。

比如,如果你在一家風投投資的初創公司工作,他們剛剛獲得了2000萬美元的資金,用人工智能技術籌集了4億美元。你坐在那裏想,好吧,我可以找出五種方法,我們現在可能在走灰色線。你會做什麼?你有那種聲音嗎?所以你很難像格布魯和米切爾博士那樣,知道你可能會把你的職業生涯置於危險之中,但這就是需要做的事情,就是要求消費者、投資者和商業領袖負責任的人工智能。

我很高興我們能參加這次會議,你們所做的所有研究都有助於推進這一對話,因為這對我們作為一個行業所做的事情非常重要。

(00:36:53)凱倫郝:非常感謝你讓我談談,保羅。

(00:36:56)保羅Roetzer:好的。我們還剩下幾分鍾,我想找點樂子,以一些快速提問結束。你在研究和寫作中使用人工智能工具嗎?

(00:37:09)凱倫郝:我做的事。我用穀歌搜索,實際上我也用

推特算法,它會在我的信息流中對我關注的所有人的推文進行排名。我有點依賴它在人工智能對話中為我提供相關的推文。

(00:37:29)保羅Roetzer:這兩個我都喜歡,因為在我的演講中,我談到了人工智能是如何無縫地融入你的生活的。你開始把事情視為理所當然,這就是營銷行業的發展方向。

就像Facebook一樣,你在CRM平台上接觸的所有東西都以某種方式帶有人工智能。我們現在還不是一個行業,但穀歌搜索絕對是人工智能的一個例子,Twitter的算法和YouTube的算法。和Facebook。沒有人工智能,所有這些都不存在。這就是酷。

好的。當你向非技術人員解釋AI時,你是如何去神秘化它的?

(00:38:02)凱倫郝:我試著告訴他們這是花哨的統計數據或花哨的數學。就像你有一大堆數據,你需要弄清楚這些數據之間的關係。所以你有一些奇特的數學機器,它會梳理數據,找到模式,然後使用這些模式在未來做出決定。

(00:38:23)保羅Roetzer:我喜歡它。我們有時可能會借。好吧,你最喜歡的日常生活中的人工智能例子,大多數消費者認為是理所當然的,甚至沒有意識到這是由人工智能實現的?

(00:38:34)凱倫郝:我的Netflix推薦算法。

(00:38:38)保羅Roetzer:有沒有哪個節目是算法推薦給你的,而你本來是不會看的,你會覺得“這很管用”?

我的是太空的。有人推薦我拍紀錄片和太空片。所以我發現了所有這些很酷的東西,除非我去搜索那個特定的主題,但人工智能、紀錄片和太空是我的推薦中不斷出現的東西,它們不斷吸引我。

(00:39:04)凱倫郝:這是個好問題。

我本來想說我看的最後一部電影,但後來我意識到是我的亞馬遜prime推薦算法。但它是一部獲得奧斯卡獎的電影。我看了很多獲獎電影。所以我想我最終得到了越來越多獲獎電影的推薦。我還看了《邁阿密一夜》(One Night in Miami),這是一部根據真實故事改編的曆史劇,主角是穆罕默德·阿裏(Muhammad Ali)、馬爾科姆·艾克斯(Malcolm X)和另外兩個我現在記不起名字的男人,他們碰巧在邁阿密的一個晚上相遇。它就像一個很酷的,虛構的曆史時刻的再現。

(00:39:52)保羅Roetzer:所以亞馬遜Prime和Netflix都得到了它;迪士尼+,所有的媒體平台都在這麼做。

關於人工智能,你最擔心的是什麼?它會如何出錯?

(00:40:05)凱倫郝:事實上,我認為現在很多公眾仍然困在這個領域,他們認為自己沒有真正的機構來塑造人工智能的未來。首先,我不認為這是真的。

我認為每個人都有參與這項技術未來發展的權利。我認為參加這個會議是你開始這樣做的一種方式。我隻是擔心,如果人們不參與共同創造這項技術,那麼我們最終會得到對我們沒有好處的技術。

比如,當隻有很小很小的一部分人決定這些係統應該嵌入什麼價值觀以及它們應該做什麼時,它將如何讓我們受益。所以我隻是希望更多的人能真正投入到這項技術中來。

(00:41:04)保羅Roetzer:所以你顯然要花很多時間研究潛在的缺點,或現有的缺點,但你也能在創新的第幾排看到,也許會知道下一步會發生什麼,會有什麼好處。那麼,人工智能最讓你興奮的是什麼?

(00:41:19)凱倫郝:我認為人工智能在醫療保健教育、科學發現等方麵有很大的潛力。這是最令人興奮的領域之一,就像藥物發現,材料發現,天體物理學,理解宇宙,以及真正的大型計算密集型問題,如氣候建模和使用氣候建模來幫助減輕氣候變化的一些影響。

所有這些都是人工智能非常令人興奮的應用。我隻是希望有更多的人參與其中,因為並不是所有的項目都有利可圖。

(00:41:56)保羅Roetzer:是的。一個很酷的例子是Demis Hassabis和DeepMind團隊的Alpha Fold項目,他們可以預測蛋白質的折疊。

再說一次,我不會假裝知道所有這些是如何工作的,但我知道的是,它為新藥物的發展打開了大門,生命科學的重大進步,因為他們開放了所有東西的來源。所以,我們再次回到,是的,穀歌有失誤,但穀歌買了深刻的思想。

穀歌的資源使De伟德bv885mis的團隊能夠實現這些飛躍,這些飛躍可以影響氣候變化、健康和所有其他事情。所有這些東西總是有好有壞。我們時間差不多到了,所以我最後要問一個問題,比如,你想給我們的觀眾留下什麼?

在花了這麼多時間研究這些東西、寫這些東西、思考這些東西之後,當這些技術人員、營銷人員、商業領袖向前發展並思考負責任的人工智能時,你想留給他們什麼呢?

(00:43:00)凱倫郝:隻是人工智能並不可怕。這並不複雜。我認為人們總是認為,哦,這太專業了。我不會理解的。

我保證你隻需要花一點時間。你會意識到人工智能是非常簡單的,我希望你會感到有力量去做這件事,因為我們需要更多的人思考人工智能,思考它的未來,思考如何確保它幫助人們。

所以,是的,這並不可怕。這並不複雜。就跳進去。

(00:43:37)保羅Roetzer:你可以回去看她一年級的“什麼是人工智能”演講,學習基礎知識,並意識到它並不是那麼抽象。凱倫,我很感激你能來。我喜歡你的作品。我等不及要繼續讀你做的研究了,尤其是你有了新獎學金。

那將會非常棒。感謝你們所做的一切,感謝你們成為這個活動的一部分,感謝你們成為我們社區的一部分。

凱倫郝:非常感謝你,保羅。

保羅Roetzer:好的。好了,這節課就到這裏。我很感謝大家的到來,並期待在會後與你們聊天。再次感謝。

相關的帖子

[營銷AI秀:第11集]作者談天才創造者和人工智能

凱茜。麥克菲利普| 2022年3月15日

《天才製造者》一書的作者凱德·梅茨是保羅·羅策爾在《營銷AI秀》播客上的嘉賓。

[營銷AI秀:第18集]cmo的AI: 2022年報告

凱茜。麥克菲利普| 2022年6月17日

CMOs處於數字轉型的前沿。他們準備好了嗎?

[營銷AI秀:第13集]cmo的AI: Andrea Brimmer, Ally

凱茜。麥克菲利普| 2022年3月29日

安德裏亞·布裏默,Ally的首席營銷和公關官,是保羅·羅策爾的《營銷AI秀》播客節目的嘉賓。

Baidu
map