<pre id="co8k0"><cite id="co8k0"></cite></pre><strike id="co8k0"></strike>
  • <acronym id="co8k0"><cite id="co8k0"></cite></acronym>
  • <nav id="co8k0"></nav>
    <input id="co8k0"><em id="co8k0"></em></input>
  • 郭毅可教授:讓機器做得對 人工智能倫理性亟待更多關注

    當下,人工智能的應用與研究已經成為全球最熱門的話題之一。不久前,當“鋼鐵人”馬斯克帶著他的另一個神奇而偉大的設備——一枚硬幣大小的腦機接口新設備出現在Neuralink發布會上,再度驚艷了人們對于AI世界的夢幻與想象。人機交互,腦機相連,人類與AI共生的時代真的到來了嗎?新華網客戶端專訪香港浸會大學副校長、英國皇家工程院院士郭毅可教授。

    郭毅可教授:讓機器做得對 人工智能倫理性亟待更多關注

    新華網客戶端執行CEO席卿:您說人工智能的研究,不僅僅是一個科學的命題,也是一個哲學的命題。我們應該怎么理解?

    香港浸會大學副校長郭毅可:當我們打開手機刷讀想要了解的新聞,一條條滑過眼前的“推送”是我們真正感興趣的新聞嗎?當我們點開網頁尋找想要購買的商品,一個個彈入視線的“寶貝”是我們真正心儀的商品嗎?當我們登錄程序想要網約一部Uber,系統顯示的價格是我們真正需要支付的費用嗎? 對于這些生活中司空見慣的場景,大多數的我們早已習以為常。不經不覺中,人工智能已經“侵入”了我們的生活。每當我們開啟一次與互聯網的遠程對話,我們已經分辨不清想要獲得的結果,究竟是人給予的還是機器給予的?我們沉浸于人工智能為我們構建的生活中,也封閉在人工智能為我們構建的“泡沫”里。撥開人工智能神秘的萬象以及人們追趕潮流的熱望,我們希望回歸本真,在哲學命題下關注人工智能的倫理性問題,為人工智能未來的發展帶來“清涼”的冷思考。

    席卿:隨著人工智能應用的范圍越來越廣,出現的爭議性問題也越來越多。智能推薦背后的準則是否合理?金融市場的算法定價是否隱藏惡意競爭與價格操控?社會信用系統對權利的剝奪是否具有法理的依據?性愛、聊天機器人的出現是否改變了人類自然的情感?這些爭議性的問題為人工智能的研究帶來了全新的視角,這些是倫理性研究問題嗎?

    郭毅可:其實所謂智能倫理,是人機共存社會中法理及組織的形式與變化。眾所周知,人工智能的發展離不開大數據、模型算法和算力三大要素。高質量的數據資源、先進的學習算法以及支撐算法執行的算力為人工智能的騰飛插上了助力的翅膀,而良好的數據生態環境、社會倫理則是人工智能得以飛得平穩致遠的兩個重要因素。人們不斷地要求機器做得更多,卻往往忽略機器做得對與不對。這也是為何一直以來人工智能的倫理學沒有得到更多的關注。人在賦予機器智能的同時,也要對機器行為理解與審視,這便是智能倫理學的研究范疇。人工智能倫理學不僅僅是技術問題、科學問題,更多的是哲學問題。不同的理解與價值觀未必得到相同的答案,因此人工智能倫理學的研究將作為一個開放的課題伴隨著未來人工智能的發展。

    探討人工智能倫理問題產生的本源,我們先從機器學習說起。如果從認知學的角度理解機器學習,它和人腦學習的邏輯和過程非常相似。我們把人腦中的知識看作是一種模型,人腦的認知模型就是對世界的看法、對觀察結果的抽象。人腦通過觀察獲取信息、獲得結果,當觀察的結果與人腦的認知模型一致,人腦除了對產生一些使人愉悅的多巴胺,不會做出什么行為;當觀察的結果與人腦的模型不一致,人腦就會做出反應,它可以很理性,認為自己的認知有問題,于是就對腦中的認知模型做出改變,或者它很自信,充分相信自己的模型,于是,就付諸行動,去改變世界。人腦改變認知是學習,改變世界是決策指導下的行動。這是認知學對學習的理解。

    機器學習也是如此,在機器學習中,模型是以函數的形式來表達的。機器學習的目的是找到一個函數的形式,以及函數的參數,機器用這個參數來對觀察的結果作比較,進而使誤差最小化。機器學習中,無論是監督學習、非監督學習、強化學習,目標都只有一個,找到與觀察具有一致性的模型。審視機器學習的過程,我們會發現一系列的根本性的問題。首先,如何向機器表達人的認知目的。人告訴機器做什么,是通過效用函數來表達的。用效用函數來定義人的認知目的非常困難。我們既要達到最好的結果,又要滿足對社會倫理的要求,效用函數難以完美表達這一要求。其次,機器學習也是一個效用函數求優的過程,這個過程我們很難理解。求優必須調整很多參數,改變一些可控制的變量,就像“煉金術”,調參的過程會導致很多的問題。

    席卿:人們在賦予機器“超能力”的同時,一邊享受著機器行為帶來的諸多得益,一邊也對機器行為產生諸多質疑,包括新聞撰寫中的生成算法是可靠的嗎?法律庭審中的機器助審會有偏見嗎?醫學診斷中機器得出的結果是正確的嗎?

    郭毅可:機器行為是機器對世界的改變,也是人對機器的感知。機器行為可以從行為目的、行為原則、行為結果和行為依據四個方面來理解和考慮。理解機器行為對于我們更好地應用機器至關重要。然而,人們一旦掌握了機器行為,有時也會變成攻擊機器的武器。自動汽車的投入使用就存在這樣的痛點。自動駕駛最大的問題在于路權選擇,當人與車出現在同一路面上,如果人知道機器的選擇是保證對人的傷害最小,人就會惡性地同機器進行較量,導致車永遠無法開走。在城市交通管理方面,當交通非常流暢高效的時候,人們即使不需要開車也想要開車,這就會再次造成污染問題。這些全局性行為的平衡,也是人工智能發展必須要應對的。

    理解機器行為是人工智能研究的一個重要問題,也是人工智能未來研究的主要方向。未來的人工智能,不是要求機器做得多,而是要求機器做得對。什么是對,不僅是個哲學的問題,也是一個價值觀的問題。如何向機器表達對的行為目的,如何判斷機器做得對不對,如何理解機器做對的緣由,以及機器行為的解釋和驗證,這些都是理解機器行為的重要課題。向機器表達正確的目的是人工智能倫理學研究的主要方向。當我們用效用函數向機器表達學習目的,函數表達的正確性,以及驗證函數的正確性需要考慮;利益最大化,誰的利益最大化?這里有一個所謂的“代理人”原則:你找律師為你辦事,你要搞清楚,到底這個律師是為你辦事,還是把你的事越搞越復雜,他好賺錢?還有一個“不可預知”原則——即好心辦壞事的問題也需要認真思考。向機器表達目標函數所考慮的倫理性、合理性、公平性歸根結底都是表達的問題。判斷機器做得對與不對,如何驗證?在求證的過程中,什么是最優?最優是否合理? 人工智能系統應該具有怎樣的性質才能贏得信任?這些也都是有待深入研究的人工智能倫理性問題。未來的學習要增加對機器行為的因果性予以理解。我們正在進行的關于隱空間的語義解釋的研究便與此相關。機器進行零樣本學習的時候,我們對隱空間的語義進行解釋,將一些特征編輯成向量,當一個沒出現過的物體出現時,機器可以通過編碼得到向量,再由質點推演出特征。我們計劃將隱空間的概念再放大,用一個概率模型映像到概念空間去,來解釋很多深層的方法。

    席卿:您介紹了人工智能的倫理性,我們發現,與真正的“圖靈時代”還相距甚遠。因為當我們向人和機器共處的黑屋提問,并無法區分得到的回答來自人還是機器的時候,我們可以追問一句:“請告訴我,你是如何得到這個問題的答案的?”人是能回答這個問題的,而機器則一定很茫然。未來,對于人機共存的世界,您怎么理解?

    郭毅可:人是能回答這個問題的,而機器則一定很茫然。然而,對于人機共存的世界,我們毋庸置疑。事實上,我們越來越習慣和機器共生在這個二元的新世界。我們一邊與機器相互交流,一邊也要嘗試理解機器行為。只有理解了機器行為,才能相信機器行為,相信和我們朝夕相處的機器。人要理解機器的表達行為,機器也要學會理解人的意圖。對機器行為的解釋、理解和驗證,以及機器行為的倫理性將成為人工智能研究的核心重點,也是科學家們著力克服解決的難點與痛點。在沒有解決和深入理解這些問題之前,我們奢談對未來人工智能統治人類未免為時過早。

    人工智能,不是“神話”,而是一個實實在在的算法。人工智能的研究體現了人類對未來的不斷追求,對未知的不斷探索。人工智能,我們既不能輕視,也不能恐懼,更無法回避。我們要透過踏實地努力、艱苦地勞動,以豐富的思想,開發出扎實的技術;以東方文明特有的包容與理解,建設二元的新世界。智能的機器和人類的共生共存,是人工智能未來發展的方向,也是我們未來社會的藍圖。【責任編輯/李小可】

    來源:新華網

    IT時代網(關注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創文章版權所有,未經授權,轉載必究。
    創客100創投基金成立于2015年,直通硅谷,專注于TMT領域早期項目投資。LP均來自政府、互聯網IT、傳媒知名企業和個人。創客100創投基金對IT、通信、互聯網、IP等有著自己獨特眼光和豐富的資源。決策快、投資快是創客100基金最顯著的特點。

    相關文章
    郭毅可教授:讓機器做得對 人工智能倫理性亟待更多關注
    谷歌前總裁:美國必須“不惜一切代價”在人工智能研發上擊敗中國
    馬斯克再次警告:人工智能可能會統治全人類
    AIoT芯片行業面對新挑戰:阿里巴巴/聯發科/微美全息等啟動芯片戰略

    精彩評論