原標題:人工智能爆發背后的五個冷思考
行業發展如何脫虛入實?人才與核心技術瓶頸如何突破?法律責任如何界定?如何應對人類就業機會挑戰?算法歧視如何破解?
前言
2017年,人工智能全面爆發,資本大量涌入,政策不斷加持,各企業趨之若鶩。在此時刻,中國完全掌握著彎道超車的良機,只是,我們更需要理性認知,畢竟健康發展、蹄疾步穩的人工智能發展才會對未來有益。
風口已來,靜待騰飛……
在不久前結束的2018年全國研究生招生統一考試中,“人工智能對人類社會產生哪些影響,對經濟發展帶來哪些改變”成為管理類聯考綜合能力考試中一道分值很重的作文題目。這從一個側面可以看出,2017年成為國家戰略的人工智能之火熱程度。
在浙江烏鎮落幕的第四屆世界互聯網大會上,人工智能同樣是最熱門的話題,在以人工智能為主題的分論壇會場,已經到了人滿為患、不得不限制進場人數的地步。
回顧2017年的科技創新,坦率地說并沒有給人太多驚喜,最引人關注的,莫過于人工智能。這一年,人工智能全面爆發,成為國家戰略。
2017年7月,國務院印發的《新一代人工智能發展規劃》中,明確新一代人工智能發展分三步走的戰略目標,到2030年使中國人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心。這是中國首個面向2030年的人工智能發展規劃。隨著人工智能上升為國家戰略,頂層設計框架搭建完成,產業發展有望持續提速,帶來投資新機遇。
實際上,在政策出臺前,對市場異常敏感的企業層面已經開始布局,2017年只是進入到了發軔期。
也許,不少“吃瓜群眾”此刻方才明白,為何做搜索引擎的百度提出“all in”(全面進入)人工智能戰略,阿里巴巴也提出了數據是生產資料的概念,而騰訊早已經開始“連接”一切!
“作為一項改變世界的技術,人工智能已經到了從實驗室走入真實的生產環境和日常生活的‘臨界點’。”阿里巴巴集團副總裁劉松說。
在政策信號如此明確的背景下,人工智能幾乎到了“人人爭說”的地步。如今的中國,人工智能缺的不是關注和熱度,而是理性的思考,是對未來風向的把握。
人工智能發展如何脫虛入實?人才與核心技術瓶頸如何取得突破?法律倫理責任如何界定?將會砸了誰的飯碗?背后的算法歧視如何解決?梳理過去一年人工智能發展,理性看待目前的階段,這五大關鍵之問可能將是人工智能發展的風向標。
與實體經濟結合去泡沫化
到了2017年年尾,曾經讓各界爭得面紅耳赤的實體經濟和虛擬經濟之辯似乎已經沒有太多意義。因為“取代誰”在當下已經成為非常不明智的設問。答案已經越來越明晰:實體經濟是根本,虛擬經濟也需要結合實體。換句話說也許更清楚,脫離實體的人工智能發展很難不出現泡沫。
于是在2017年,我們看到,很多的互聯網工程師開始進入工廠深度研究流水線,拜師高級技工,在工廠寫代碼,而結合了人工智能的生產線大大提高了生產率。
阿里云總裁胡曉明認為,人工智能的發展要去泡沫化,下一站將是“產業AI”。目前,該公司在城市、工業、零售、金融、汽車、家庭等多個場景推出ET大腦等“產業AI”方案,這些能力、產品和解決方案都通過虛擬的云端結合了扎實的工業流水線。
胡曉明告訴記者:“現在人工智能領域有種浮躁的氛圍,有些企業靠AI講資本故事、炒作股價。人工智能不應僅僅是實驗室里的、PPT里的‘概念上的AI’,更應是‘產業AI’!
人工智能若要健康發展,首先必須要有場景驅動,人工智能在解決什么問題、為這個社會的成本降低了多少、效率提高了多少;人工智能背后,是否有足夠的數據來驅動AI能力的提升;是否有足夠的計算能力支撐算法和深度學習?只有在這三個場景同時具備的前提下,人工智能才會有價值。
在2017年,工業大腦走進車間,突破了良品率提升、故障率預測等制造業核心難題,互聯網與工業的結合幫助類似協鑫光伏、中策橡膠、天合光能、盾安新能源等大型制造企業創造利潤數十億元。在天合光能,工業大腦幫助其提升了電池片A品率達7%,而之前預設的目標是1%。
機器觀察世界,機器學習規律,數據的積累、計算能力的提升,讓人工智能由此變得真正聰明可用。
獵豹移動CEO傅盛認為,傳統行業的智能化核心是把傳統行業數據化,今天人工智能有機會把傳統的物理世界數據化。物理世界的數據化是傳統行業真正轉型的核心。如果實體經濟想實現10倍數增長,關鍵是要實現物理世界的數據化,用更多人工智能的方式,去獲取更多來自于這個產業的數據。
2017年,時髦的城市大腦、工業大腦、無人駕駛、無人超市、無人機、語音識別、唇語識別,無一不是人工智能與實體結合的應用。
進入商店的每一張人臉,其實就是每一個訪客的訪問,在里面顧客拿起的每個動作都可以被識別。進入無人超市看上去是一個人臉識別簽到,其實就是一個數據的來回流動。線上和線下沒有界限,電商開始進軍零售店,融合的前提就是數據化。
傅盛說自己的公司在美國硅谷只干了一件事,就是投了一個小基金,讓它每次帶自己去看硅谷的創業公司,從中可以知道美國企業在干什么。后來傅盛發現在數字化這一點上,美國公司在做的事情就是把物理世界數據化。
將物理世界數據化,與實體經濟結合,降低社會成本,而不是空炒概念,數字對數字,將是人工智能未來健康發展的重要一環。
人才還得自己來培養
得人工智能者得天下,得人才者得人工智能。
人工智能火熱自不待言,但是必須清醒認識到,在人才儲備和核心技術方面我們尚存突破空間。
打開某知名招聘網站,搜索“人工智能”后馬上會出現很多招聘崗位,具有誘惑力的薪酬讓人眼前一亮。以人工智能算法工程師為例,該職位少則月薪一兩萬元,多則年薪百萬元。
這種供需不平衡的現象,不僅在中國有,在美國硅谷亦是如此。
早在2016年,創新工場創始人李開復曾公開透露:“在硅谷,做深度學習的人工智能博士生,現在一畢業就能拿到年薪200萬到300萬美元的錄用通知!
據領英近日發布的《全球AI領域人才報告》顯示,截至2017年一季度,基于領英平臺的全球AI(人工智能)領域技術人才數量超過190萬,其中美國相關人才總數超過85萬,高居榜首,而中國的相關人才總數也超過5萬人,位居全球第七。
然而,這些人才仍不能滿足互聯網行業的需求。不少互聯網企業人士告訴記者,目前互聯網行業中最稀缺的就是人工智能人才,甚至很多行業巨頭會用月薪幾十萬元招聘人工智能頂級人才。
傅盛表示:“下大力氣把海外人才引入中國是合理的,但核心人才還是要中國自己來培養。”
目前,業界對AI人才的爭搶近乎白熱化,但是“缺口”同樣明顯。來自第三方數據顯示,過去一年中,人工智能人才需求量增長近2倍,2017年第三季度,人工智能人才需求量相較2016年同期增長高達179%。中興研究院副院長董振江坦言:“去年招人非常困難,在人工智能領域,大家都在搶人,薪酬也一再加碼!
AI技術人才是主導這一變革的中流砥柱。人工智能的競爭說到底是對人才的競爭,在國內人才競爭中,數字挖掘、算法分析、語言識別、自然語言處理是人才競爭的核心。
而在核心技術方面,雖然我國已經取得了多項創新,但主要偏向應用和數據積累,在核心技術方面與美國尚存差距。我國雖然已從跟跑走向領跑,并有了彎道超車的機會,但美國仍是目前出臺人工智能戰略最多、核心技術和人才最多的國家。
如何在人才和核心技術方面取得突破,將是未來我國在人工智能發展中最需要注意的問題。
意味著更多從業機會
當機器越來越像人,能夠做人的工作時,這是否意味著它們會搶走人類的飯碗?
來自互聯網業界的聲音相對樂觀,一個普遍的觀點是:人工智能對就業的沖擊正在發生,但被取代的主要是重復性的工作。實際上,人工智能也會帶來新的職位,讓人類可以從事更多創造性的工作。
阿里巴巴集團副總裁劉松對記者說,人工智能將是人類歷史上的第四次工業革命,其實每次新的工業革命到來的時候,都有類似“砸飯碗”的恐慌,事實證明,創新帶來的更多的是機會。
他認為,未來人工智能意味著更多從業機會。確實會有很多職業被人工智能取代,但人類可以空出來更多時間做創造性的東西,或是享受創造性的內容。這將為設計師、藝術從業者帶來更多可能性。
“什么人才最缺,可能是藝術類的創造者,而大量簡單重復類工作會遇到沖擊!眲⑺杀硎。
數據似乎同樣在支撐這樣的說法。來自智聯招聘的一份研究報告顯示,程式化、重復性、依靠反復操作實現的熟練工種已經開始受到沖擊,投資銀行業務、校對錄入這兩個典型職位在過去三個季度連續出現大幅同比負增長。咨詢公司德勤發布的報告也顯示,人工智能已經在英國取代了80萬個低技能工作崗位,但同時也創造出350萬個新就業機會,后者的年收入比前者多1.3萬英鎊。
人工智能的研發者認為,機器永遠不可能取代人的作用,人工智能只能解放人類,讓人類從事更多的創造性和服務性工作。機械化程度越高的工作,人們越希望由人工智能完成,而需要創作的工作,則需要人類來完成。
問題的關鍵在于,這些“新飯碗”誰來端?
懂得學習、勇于迎接挑戰的人,將是未來端“新飯碗”的人。具體而言,藝術創造者、心理醫生等精神層面的從業者,未來將越來越受歡迎,而高危和惡劣環境的穩定崗位將大量被人工智能取代。
相關法規需要不斷突破
伴隨人工智能的應用不斷落地,法律責任的劃分和承擔是人工智能發展面臨的首要法律挑戰。其涉及如何確保人工智能和自主系統是可以被問責的。
百度創始人李彥宏第一次正式介紹百度無人車時就遇到了這一問題——他駕駛無人車到會場后不久,就收到了交管部門的罰單。而最近百度無人車在河北雄安進行試駕,當地相關部門特別出臺了臨時交通規則讓其上路,這就是法規上的突破。
由此說明,伴隨著人工智能的進步,法規也需要不斷取得突破!盁o人車收到罰單了,距離大規模上路還會遠嗎?”李彥宏如此認識這個問題,而在世界各國,關于無人駕駛的立法也正在不斷取得突破。
然而,當此人工智能的發軔期,有一個繞不過去的法律問題就是數據隱私保護。
人工智能的發展越來越依賴大量的數據分析,大規模的數據收集、分析和使用,使傳統社會走向透明化,在萬物互聯、大數據和機器智能三者疊加后,人們或許不再有隱私可言。
如今,商家越來越夸大大數據、人工智能給人類的生產、生活帶來的極大便利,而用戶本身也往往忽視了這些新技術新應用對隱私和個人數據帶來的危害。
人工智能能帶來精準營銷,而精準營銷的背后可能就是“精準詐騙”。因此,在發展人工智能的過程中,個人隱私和數據保護是國際社會長期以來重點關注的內容。近年來,隨著大數據、云計算以及人工智能新技術的快速發展和應用,給現有個人信息保護法律制度帶來了新的挑戰,各國立法、修訂法律活動更加頻繁。
人工智能時代要負起責任
今日頭條是過去一年各界爭相關注的一個信息發布平臺,基于一種設計后的算法,今日頭條作為信息集合平臺為用戶推薦最感興趣的內容。由于對用戶注意力的精準抓取,今日頭條取得了巨大成功,其身價不斷增高。
今日頭條的成功之處,在于其所謂基于算法的精準推送,但問題的關鍵還在于,這種算法已經越來越成為一種“看不見的正義”。這種算法是不是用戶真正所需要的?對此,一些用戶抱怨,往往因誤點了一兩條新聞,或者僅僅出于好奇點了一下相關新聞,就導致之后不斷大量地被推送相關內容的新聞。這實際上也變相剝奪了用戶的選擇權。
必須明確的是,就目前發展階段而言,認為算法可以為人類社會中的各種事務和決策工作帶來完全的客觀性只是一廂情愿。無論如何,算法的設計都是編程人員的主觀選擇和判斷,他們是否可以不偏不倚地將既有法律和道德原封不動地寫入程序,值得深究。
算法歧視由此成為一個值得重視的問題。
今日頭條的出現說明這樣一個問題,算法開始越來越多地左右著移動互聯網,比如可以決定你看到什么新聞,聽到什么歌曲,看到哪個好友的動態。那么,算法可以做到公平正義嗎?
互聯網上的算法歧視早已有之,圖像識別系統就曾犯過種族主義大錯,比如,谷歌公司的圖片軟件曾錯將黑人的照片標記為“大猩猩”。
英國《衛報》曾發表評論指出,人工智能可能已經開始出現了種族和性別偏見,但這種偏見并非來自機器本身,而是計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念,從而出現了種族和性別偏見。這些發現令人擔憂現有的社會不平等和偏見正在以不可預知的方式得到強化。
解鈴還需系鈴人,規避“算法歧視”的工作必須由人去做。比如,有些大型IT公司已經成立了道德委員會,這標志著負責任的人工智能時代的到來;有些組織則致力于解決與人工智能相關的安全和隱私問題,并推動開源,從而為全社會共享。
我們不僅應建構必要的倫理道德規范體系,還應增強智能算法的透明性。正如丹妮拉·濟慈·西特倫在其論文《技術正當程序》中所指出的,“鑒于智能算法日益決定著各種決策的結果,人們需要建構技術公平規范體系,通過程序設計來保障公平的實現,并借助于技術程序的正當性來強化智能決策系統的透明性、可審查性和可解釋性”。