機(jī)器人會(huì)傷害你?科學(xué)家做了實(shí)驗(yàn)并回答了七個(gè)問(wèn)題
艾薩克阿西莫夫著名的機(jī)器人三定律,對(duì)機(jī)器人和自動(dòng)機(jī)器人設(shè)下行為準(zhǔn)則以確保人類的安全,也是一個(gè)著名的虛構(gòu)學(xué)說(shuō)。這部法則首次出現(xiàn)在他1942年的短篇小說(shuō)《跑位》中,并且也出現(xiàn)在《我,機(jī)器人》等經(jīng)典作品中,在剛開(kāi)始出現(xiàn)的時(shí)候看起來(lái)很不錯(cuò):
1、機(jī)器人不得傷害人類,或因不作為而使人類受到傷害。
2、除非違背**法則,機(jī)器人必須遵守人類的命令。
3、在不違背**及第二法則下,機(jī)器人必須保護(hù)自己。
當(dāng)然,應(yīng)用在現(xiàn)實(shí)中的隱藏的沖突和漏洞比比皆是,在我們這個(gè)擁有著先進(jìn)的機(jī)器學(xué)習(xí)軟件和自動(dòng)化機(jī)器人時(shí)代,定義和實(shí)施人工智能的一套完整可行的道德規(guī)范已經(jīng)成為像機(jī)器智能研究所和OpenAI所重點(diǎn)考慮的問(wèn)題。
Christoph Salge是紐約大學(xué)的一名計(jì)算機(jī)科學(xué)家,他采取了一種不同的方法。Salge和他的同事Daniel Polani并沒(méi)有用自上而下的哲學(xué)理論來(lái)定義人工智能的行為,而是在研究一種自下而上的道路,或者是“機(jī)器人應(yīng)該首先做什么”。正如他們?cè)?*近的論文中所寫的那樣,“給予權(quán)利是機(jī)器人三定律的替代品?!薄笆跈?quán)”這個(gè)概念在一定程度上受到了控制論和心理學(xué)的啟發(fā),它描述了一個(gè)代理人的內(nèi)在動(dòng)機(jī),即堅(jiān)持并在其周圍環(huán)境中工作?!熬拖裼袡C(jī)體一樣,它想要生存下去。它想去影響世界,”Salge解釋道。在電池電量過(guò)低的情況下,Roomba會(huì)在它快沒(méi)電時(shí)自動(dòng)尋找充電站,這可能是一種非?;镜氖跈?quán)方式:它必須采取行動(dòng)讓自己沒(méi)電不能續(xù)航時(shí)**充電來(lái)維持自身的生存。
授權(quán)聽(tīng)起來(lái)像是一個(gè)導(dǎo)致像Nick Bostrom這樣的安全智能思想家擔(dān)心的結(jié)果:強(qiáng)大的自治系統(tǒng)只關(guān)心如何讓自己的利益**大化并做出一些瘋狂的行為。但是,研究人類機(jī)器社交互動(dòng)的Salge想知道,如果一個(gè)被授權(quán)的人工智能“也觀察到到另一個(gè)被授權(quán)的人工智能”,結(jié)果會(huì)是怎樣。你不僅想讓你的機(jī)器人保持運(yùn)轉(zhuǎn),你還想保持對(duì)它能夠與人類友好相處而進(jìn)行控制?!?
Salge和Polani意識(shí)到,信息理論提供了一種方法,將這種相互賦權(quán)轉(zhuǎn)化為一種數(shù)學(xué)框架,即可以付諸行動(dòng)的一個(gè)非哲學(xué)化的人工智能。Salge說(shuō):“機(jī)器人三定律的一個(gè)缺點(diǎn)是,它們是基于語(yǔ)言的,而語(yǔ)言有高度的模糊性?!薄拔覀冋谂ふ乙环N可以實(shí)際操作的東西?!?
咨詢電話:- 15000411174
咨詢網(wǎng)址:教育聯(lián)展網(wǎng)