AI洞觀 | AI寒冬將至?行業大咖呼籲重啓AI再出發
出品 | 本站智能(公衆號:smartman163)
欄目 | AI洞觀-第2期
選自 | Forbes
譯者 | 小小
【本站智能訊 10月15日消息】AI仍在繼續興起,儘管它並沒有成爲人們所期待的那種廣泛性力量。在過去幾年中,AI領域的發展速度令人震驚。自2000年以來,活躍的AI初創企業數量增加了14倍,風投對AI初創企業的投資增加了6倍,需要AI技能的工作比例增長了4.5倍。
不過,領先的互聯網數據統計機構Statista發佈的調查結果顯示,截止2017年,全球只有5%的企業在其流程和產品中廣泛採用了AI,32%的企業尚未採用AI,22%的企業甚至沒有采用AI的計劃。知名AI研究人員菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒體Venturebeat上撰文,闡述了他的觀點,宣稱“AI寒冬即將到來。”
皮恩尼斯基說:“我們現在正處於2018年中後期,AI領域的情況已經發生了變化。儘管表面上看似乎並非如此,比如NIPS會議仍然超受歡迎,企業公關團隊在新聞發佈會上仍然充斥着AI,美國連續創業家伊隆·馬斯克(Elon Musk)仍在承諾打造無人駕駛汽車,谷歌也始終在推動吳恩達(Andrew Ng)的理念,即AI比電力更強大。但這種敘述已經開始崩潰。”
我們極力宣傳無人駕駛汽車的願景。今年春天早些時候,一名行人被無人駕駛汽車撞死,這一事件引起了人們的警覺,人們不僅質疑這項技術,還質疑無人駕駛系統決策的背後是否存在道德問題。無人駕駛汽車的問題不是在挽救1個人還是5個人之間做出簡單的二元選擇,而是在演變成一場關於良知、情感和感知的辯論,使機器做出合理決策的道路變得更加複雜。
皮恩尼斯基等人得出的結論是:全自動無人駕駛汽車的夢想可能比我們想象的遙遠得多。AI專家們越來越擔心,無人駕駛系統要想可靠地避免事故,可能還需要數年甚至數十年時間的努力。”
| 所謂的AI落地只是試點
讓我們以史爲鑑來看下,雲計算和網絡工業都花了大約5年的時間纔開始對人們的生活產生重大影響,而這些行業影響市場的重大轉變也花了近10年時間。我們正在爲AI設想一個類似的時間表。正如平臺技術、開源和封閉源系統以及AI技術方面經驗豐富的工程主管凱倫·班尼特(Karen Bennet)解釋的那樣:
“爲了讓每個人都能採用,一款產品需要方便可用,需要是能夠擴展至被所有人使用,而不僅僅是服務於數據科學家。該產品將需要考慮數據生命週期中數據捕獲、準備、培訓模型和預測等環節。隨着數據被存儲在雲端,數據管道可以不斷地提取,並準備用它們來訓練模型,從而做出預測。模型需要藉助新的訓練數據不斷改進,從而保持模型的相關性和透明性。這就是目標和希望。”
我(本文作者傑西·瓊斯(Jessie Jones))和班尼特都來自科技和AI初創企業。我們所見證的以及在AI社區中與同行討論中我們所意識到的是,我們正在衆多商業問題上進行廣泛的實驗,然而這些實驗往往停留在實驗室中。這篇最近的文章證實了當今普遍存在的AI炒作問題:
“AI技術供應商往往會受到激勵,讓他們的技術聽起來比實際中更強,但這也暗示了它們在現實世界中的吸引力比實際上更大……企業中的大多數AI應用程序不過是‘試點’。在AI領域兜售營銷解決方案、醫療保健解決方案和金融解決方案的供應商,基本上只是在測試這項技術。在任何特定的行業中,我們發現,在銷售AI軟件和技術的數百家供應商中,只有大約三分之一的公司具備開發AI所需的技能。”
風投公司意識到,他們可能在一段時間內看不到投資回報。然而,AI還沒有準備好迎接黃金時段的到來,原因之一就在於幾乎無處不在的AI實驗幾乎都沒有看到曙光。
| 算法需要負責任嗎
我們聽說過AI“黑箱”,即研究人員目前還不清楚AI如何做出決策。這種做法是在銀行和大型機構面臨要求問責制的合規標準和政策的情況下出現的。由於系統是作爲“黑箱”操作的,只要這些算法的創建經過了審查,並且滿足了關鍵涉衆的一些標準,人們就可能對算法產生固有的信任。
鑑於大量證據表明開發中的算法存在缺陷,以及由此產生意想不到的有害結果,這種觀點很快就引發了爭議。我們的許多簡單系統都像“黑箱”一樣運作,超出了任何有意義的審查範圍,原因包括公司有意保密、缺乏足夠的教育以及缺乏瞭解如何批判性地檢查輸入、結果,最重要的是,不理解爲何會出現這些結果。
班尼特表示:“如今,AI行業正處於企業準備採用的早期階段。AI是非常有用的,可以通過大量的數據進行發現和分析,但是它仍然需要人類的干預作爲對數據及其結果進行評估和行動指南。”
圖:截至2017年,全球商業組織中的人工智能的採用水平
班尼特還澄清說,如今的機器學習技術使數據能夠被標記出來,以幫助識別真知灼見。然而,作爲這個過程的一部分,如果有些數據被錯誤地標記,或者沒有足夠的數據訓練,亦或者有問題的數據產生偏見,很可能會出現糟糕的決策結果。她還表示,目前的流程仍在不斷完善:“目前,AI都是關於決策支持的,以提供洞察,讓企業可以從中得出結論。在AI發展的下一個階段,AI可將數據中的動作自動化,還有些額外的問題需要解決,比如偏見、可解釋性、隱私性、多樣性、倫理和持續的模型學習等。”
這表明,要想真正理解AI產品,需要有個關於對象和人的常識世界模型,以幫助AI去真正瞭解它們。一個模型只暴露在有限數量的標記對象和有限種類的訓練中,這將限制這個常識世界模型的有效性。企業需要進行研究,以確定模型如何處理其輸入,並以人類可以理解的方式得出其結論。亞馬遜發佈的面部識別技術Rekognition,是目前正在研發和許可使用的AI技術的典型例子,但其有效性存在明顯的差距。
美國公民自由聯盟發佈的一項研究稱:“亞馬遜的技術將28名國會議員的照片與罪犯公開的臉部照片混淆了。鑑於亞馬遜積極向美國各地的執法機構推銷自己的Rekognition,這顯示其還遠遠不夠好。”算法正義聯盟(Algorithmic Justice League)的創始人喬伊·布拉馬維尼(Joy Buolamwini)在最近的一次採訪中,呼籲暫停這項技術,稱其無效,並需要更多監管。此外,在這些系統被公開發布之前,政府應該制定更多相關標準。
| 數據的完整性問題
如今的AI需要大量的數據才能產生有意義的結果,但無法利用其他應用程序的經驗。雖然班尼特認爲克服這些侷限性的工作正取得進展,但是在模型以可擴展的方式應用之前,學習的轉移是有必要的。然而,在某些情況下,AI可以在今天得到有效的應用,比如在圖像、聲音、視頻和翻譯語言方面的洞察力。
企業正在學習應該關注的問題:
1)數據的多樣性,包括適當人羣的代表性。
2)在創建算法的過程中確保不同的經驗、觀點和思維。
3)數據質量優先於數量。這些都是非常重要的,特別是隨着偏見的引入,對AI的信任和信心數據都在下降。例如,在土耳其語中屬於中性的語言,谷歌翻譯中的AI模型在將其翻譯成英語時卻錯誤地預測了性別。
此外,癌症識別AI在圖像識別訓練時只使用皮膚白皙的人照片。從上面的計算機視覺例子中,喬伊·布拉馬維尼(Joy Buolamwini)測試了這些AI技術,並意識到它們在識別男性VS女性或淺色VS深色皮膚方面更有效。識別男性的錯誤率低至1%,而識別深色皮膚女性的錯誤率則高達35%。這些問題的發生是因爲沒有使用多樣化的數據進行培訓。
班尼特承認:“AI的概念很簡單,但通過獲取越來越多的真實世界數據,算法會變得越來越聰明,然而要解釋這些決策卻變得極其困難。數據可能會不斷變化,AI模型需要進行過濾,以防止錯誤的標籤,比如將非洲人貼上大猩猩的標籤,或者將熊貓誤認爲長臂猿。企業依靠錯誤的數據來做出決策,將導致更加糟糕的結果。”
幸運的是,由於AI的狹義存在,很少有公司會根據今天的數據做出重大商業決策。從我們所看到的情況來看,大多數解決方案主要是產品推薦和個性化營銷溝通。由此得出的任何錯誤結論都不會對社會造成太大影響,至少目前如此。使用數據來進行業務決策並不新鮮,但發生變化的是使用結構化和非結構化數據的數量和組合正呈指數級增長。AI使我們能夠持續性地使用來自他們源頭的數據,並更快地獲得洞察力。對於具有處理來自不同數據源的數據和結構能力的企業來說,這意味着巨大的機會。
然而,對於其他企業來說,大量的數據可能代表着一種風險,因爲不同的來源和格式使得轉換信息變得更加困難。這些信息來自電子郵件、系統日誌、網頁、客戶記錄、文檔、幻燈片、非正式聊天、社交網絡以及圖像和視頻更豐富的媒體。數據轉換仍然是開發乾淨數據集和有效模型的絆腳石。
| 偏見比我們意識到的更普遍
許多商業模型都存在偏見,以最小化風險評估和優化目標機會,雖然它們可能產生有利可圖的商業結果。但衆所周知,它們會導致意想不到的後果,導致個人傷害,加大經濟差距。保險公司可能會利用位置信息或信用評分數據向較貧窮的客戶發放更高的保費。銀行可能會批准信用評分較低的貸款申請,儘管這些人已經負債累累,可能無法負擔更高的貸款利率。
由於AI的引入不僅會使現有的偏見永久存在,而且這些學習模型的結果可能會推廣到加深經濟和社會鴻溝的程度,因此圍繞着偏見的謹慎程度也越來越高。在當前情況下,偏見出現在類似“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,簡稱COMPAS)的算法中。
COMPAS是由名爲Northpointe的公司創建的,目的旨在評估審前聽證中被告犯罪行爲的風險,並作出預測。COMPAS初步研究中使用的問題類型足以顯示,無意中對待黑人的偏見會在系統中延續。在沒有公共標準可用的情況下,Northpointe得以自己創建公平的定義,並在沒有第三方評估的情況下開發了一種算法。這篇文章證明:一個流行的算法在預測犯罪方面並不比隨機的人更好。
如果這款軟件和未受過訓練的人對在線調查的反應一樣準確,我認爲法院在做決定時應該考慮到這一點。班尼特稱:“當我們試圖修復現有系統以最小化這種偏見時,關鍵是要對不同的數據集進行模型訓練,以防止將來產生危害。”由於錯誤模型的潛在風險遍佈企業和社會,企業沒有治理機制來監督不公平或不道德的決策,而這些決策將無意中影響最終消費者。
| 對隱私日益增長的需求
我和班尼特都曾在雅虎工作過,我們與強大的研究和數據團隊合作,能夠在我們的平臺上對用戶的行爲進行仔細研究。我們不斷地研究用戶行爲,瞭解他們在音樂、主頁、生活方式、新聞等衆多屬性方面的傾向。當時,對數據使用沒有嚴格的標準或規定。隱私被降級爲平臺上用戶被動遵守的協議中的條款和條件,與今天的情況類似。
最近的劍橋分析公司濫用Facebook用戶數據醜聞把個人數據隱私問題推到了風口浪尖。主要信貸機構(如Equifax)、最近的Facebook和Google +頻繁發生的數據泄露,繼續加劇了這一問題。2018年5月25日生效的歐洲《通用數據保護條例》(GDPR)將改變企業的遊戲規則,特別是那些收集、存儲和分析個人用戶信息的公司。它將改變企業經營多年的商業規則。毫無節制地使用個人信息已經到了緊要關頭,因爲企業現在會意識到,數據的使用將受到重大限制。更重要的是,所有權之爭更爲激烈。
我們看到了定位廣告的早期效果。這個價值750億美元的行業,預計到2021年將以21%的年複合增長率增長,但仍受到Facebook和谷歌的寡頭壟斷的阻礙,它們獲得了大部分收入。現在,GDPR加大了風險,讓這些廣告技術公司擔負起更多責任。這種風險非常高,以至於(廣告商)必須非常確定,你被告知的內容實際上是符合要求的。對於什麼最終會構成違規,似乎存在着足夠多的普遍困惑,人們對此採取了廣泛的方法,直到你能夠準確地瞭解合規。
儘管監管最終會削弱營收,但至少就目前而言,移動和廣告平臺行業也正面臨着越來越多的審查,這些行業多年來一直在從消費者身上賺錢。這一點,再加上圍繞既定實踐的審查,將迫使行業改變收集、聚合、分析和共享用戶信息的方式。對隱私進行操作需要時間、重大投資以及心態上的改變,這些將影響企業政策、流程和文化。
| AI與倫理道德不可避免的結合
AI的普遍因素確保了社會效益,包括簡化流程、增加便利性、改進產品和服務,以及通過自動化檢測潛在的危害。在最後一點上妥協可能意味着,更容易依據更新的製造過程、服務和評估解決方案、生產和產品質量結果來衡量投入/產出。隨着關於AI的討論和新聞的持續,“AI”這個術語和“倫理”的結合,揭示了越來越嚴重的擔憂,即AI技術在哪些方面會造成社會損害,從而考驗人類的良知和價值觀。
圖:有關AI及其道德標準的討論正在增多
除了個人隱私問題,今天我們看到了一些近乎不合情理的創新例子。如前所述,Rekognition被用於執法和公民監視,而該技術被認爲是錯誤的。谷歌決定向美國國防部提供AI技術支持,用於分析無人機拍攝的視頻,目標是幫助創建一個複雜的系統,在名爲project Maven的項目中對城市進行監測,許多員工爲此發起抗議,甚至不惜辭職。
決策者和監管機構將需要引入新的流程和政策,以恰當地評估AI技術的使用方式、用途和過程中是否會出現意外後果。班尼特指出了AI算法中數據使用的新問題需要考慮,包括如何檢測敏感數據字段並匿名化它們,同時保留數據集的重要特性?我們能在短期內訓練合成數據作爲替代品嗎?在創建算法時,我們需要問自己一個問題:我們需要哪些字段來提供我們想要的結果?此外,我們應該創建哪些參數來定義模型中的“公平”,這意味着是否會區別對待兩個個體?如果是這樣,原因是什麼?我們如何在我們的系統中持續監控這一點?
| AI寒冬?也許是AI走向更美好未來的良機
AI已經走了很長的路,但還需要更多的時間來成熟。在一個自動化程度和認知計算能力不斷提高的世界裡,即將到來的AI寒冬也爲企業提供了必要的時間,讓它們來決定如何將AI融入企業中,以及如何利用AI解決面臨的問題。AI面臨問題需要在政策、治理以及對個人和社會的影響方面加以解決。
在下一次工業革命中,AI的影響要大得多,因爲它的無處不在將在我們的生活中變得更加微妙。傑夫·辛頓(Geoff Hinton)、李飛飛(Fei Fei Lee)和吳恩達(Andrew Ng)等AI領域的領軍人物,都在呼籲重啓AI,因爲深度學習尚未被證明具有可擴展性。AI的前景並沒有減弱,相反,人們對其真正到來的期望被進一步推高,也許還需要5到10年。
我們有時間在深度學習、其他AI方法以及有效從數據中提取價值的過程中研究這些問題。這種商業準備、監管、教育和研究過程的完成對於加快商業和消費者的步伐,確保一個適當約束技術的監管體系到位,以及讓人類在更長時間內掌控科技的監管體系來說都是非常必要的。