<pre id="co8k0"><cite id="co8k0"></cite></pre><strike id="co8k0"></strike>
  • <acronym id="co8k0"><cite id="co8k0"></cite></acronym>
  • <nav id="co8k0"></nav>
    <input id="co8k0"><em id="co8k0"></em></input>
  • 人工智能也會背叛?專家建議向機(jī)器人灌輸人類價值觀


    北京時間5月3日消息,據(jù)國外媒體報道,隨著人工智能的發(fā)展,越來越多的科學(xué)家開始擔(dān)憂人工智能會給人類帶來各種難以預(yù)計的影響,甚至可能是災(zāi)難。在近日開幕的“TED2017”大會上,計算機(jī)專家斯圖爾特-拉塞爾再次發(fā)出警告稱,人類制造出的事物(人工智能)將可能進(jìn)化得比人類更聰明。拉塞爾建議,人類必須要在機(jī)器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。

    美國加州大學(xué)伯克利分校計算機(jī)教授斯圖爾特-拉塞爾解釋說,雖然他本人也支持人工智能的研究,但總感覺制造出一種比自身物種更為聰明的事物并不一定是好事情。拉塞爾建議,為了防止機(jī)器人接管我們?nèi)祟悾覀儽仨氈圃斐鰺o私心的機(jī)器人,即在它們的目標(biāo)任務(wù)中存在一定程序的不確定性,應(yīng)該教會它們?nèi)祟悆r值觀方面的知識。通過向人工智能系統(tǒng)中灌輸“人類常識”,科學(xué)家必須重新定義人工智能,這樣我們才能制造出有益的機(jī)器。

    拉塞爾表示,機(jī)器人應(yīng)該按照某種法則或定律去編程,就比如科幻作家艾薩克-阿西莫夫提出的機(jī)器人三定律,以防止它們在執(zhí)行任務(wù)時造成無意識的傷害。艾薩克-阿西莫夫所提出的機(jī)器人三定律主要內(nèi)容包括:1)機(jī)器人不得傷害人類,或因袖手旁觀使人類受到傷害;2)在不違背第一定律的前提下,機(jī)器人必須服從人類的命令;3)在不違背第一及第二定律的前提下,機(jī)器人必須保護(hù)自己。因此,在為機(jī)器人編程時,就必須將利他主義、謙虛謹(jǐn)慎的態(tài)度以及其它一些人類價值觀方面的優(yōu)越性編寫進(jìn)去。拉塞爾認(rèn)為,“這是人類與人工智能互相適應(yīng)、和諧相處的第一步。”

    不過,蘋果Siri高級研發(fā)主管湯姆-格魯伯對人類和人工智能的未來抱有較為樂觀的態(tài)度。他認(rèn)為,人工智能將可用于增強(qiáng)人類的忘記力,讓人類不再會忘記任何事情。格魯伯表示,“人工智能所帶來的超人能力是不可避免的,這能夠讓我們記住每個人的名字,記住聽過的每一首歌或者看過的任何事物。人工智能能夠與人類協(xié)作,而不是許多人所擔(dān)心的對抗,它們能夠幫助我們?nèi)祟悜?zhàn)勝極限。如何利用這一強(qiáng)大的科學(xué)技術(shù),我們有自己的選擇。我們既可以讓它們與我們競爭,也可以讓它們與我們協(xié)作。它們只會讓我們克服局限,做得更好。機(jī)器人變得越來越聰明,我們?nèi)祟愐矔勇斆鳌!薄矩?zé)任編輯/李若純】

    (原標(biāo)題:人工智能專家建議向機(jī)器人灌輸人類價值觀以防背叛)

    本文轉(zhuǎn)載自新浪科技,如有侵權(quán),請聯(lián)系我們刪除

    來源:新浪科技

    IT時代網(wǎng)(關(guān)注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創(chuàng)文章版權(quán)所有,未經(jīng)授權(quán),轉(zhuǎn)載必究。
    創(chuàng)客100創(chuàng)投基金成立于2015年,直通硅谷,專注于TMT領(lǐng)域早期項目投資。LP均來自政府、互聯(lián)網(wǎng)IT、傳媒知名企業(yè)和個人。創(chuàng)客100創(chuàng)投基金對IT、通信、互聯(lián)網(wǎng)、IP等有著自己獨(dú)特眼光和豐富的資源。決策快、投資快是創(chuàng)客100基金最顯著的特點(diǎn)。

    相關(guān)文章
    人工智能也會背叛?專家建議向機(jī)器人灌輸人類價值觀

    精彩評論