發(fā)布時(shí)間:2018/11/2 9:09:08 來(lái)源:人民日?qǐng)?bào) 編輯:中國(guó)家裝家居網(wǎng)
人工智能算法潛在的安全隱患、認(rèn)知偏見、法律倫理沖突等往往是現(xiàn)實(shí)社會(huì)缺陷的反映。只有在機(jī)器與使用機(jī)器的人上兩頭著力,我們才能創(chuàng)造一個(gè)人工智能與人類良性互動(dòng)的未來(lái)。
語(yǔ)音點(diǎn)菜、刷臉買單、無(wú)人車送回家……60多年前,當(dāng)一批年輕的科學(xué)家首次提出人工智能的概念時(shí),或許沒(méi)想到它帶來(lái)的巨大變化;而今,得益于計(jì)算能力的提升、大數(shù)據(jù)的驅(qū)動(dòng)以及深度學(xué)習(xí)的突破,人工智能正加快“進(jìn)化”,日益改變著我們的生產(chǎn)、生活。
技術(shù)是把雙刃劍。應(yīng)當(dāng)看到,人工智能在高歌猛進(jìn)的同時(shí),對(duì)安全、法律倫理等也提出了新挑戰(zhàn)。比如,一些專家擔(dān)憂人工智能可能模糊虛擬世界和物理世界的界限,甚至重塑人類的生存環(huán)境和認(rèn)知形態(tài),并由此衍生出一系列棘手的道德倫理難題。知名物理學(xué)家霍金生前就認(rèn)為,人工智能的短期影響由控制它的人決定,而長(zhǎng)期影響則取決于人工智能是否完全為人所控制。
從技術(shù)發(fā)展進(jìn)程和邏輯看,這些擔(dān)憂或許來(lái)得早了點(diǎn)。好在我們沒(méi)有僅僅停留在爭(zhēng)論上,針對(duì)人工智能潛在的風(fēng)險(xiǎn),科學(xué)家和工程師們防患于未然,從產(chǎn)品設(shè)計(jì)標(biāo)準(zhǔn)、規(guī)范約束等方面提出了一系列試圖控制智能機(jī)器系統(tǒng)的可行性方案。面對(duì)智能算法不可理解、缺乏透明造成的機(jī)器偏見,人們正加強(qiáng)評(píng)估人工智能使用的數(shù)據(jù)、算法以及模型,剔除可導(dǎo)致偏見的潛在因素;對(duì)于未來(lái)強(qiáng)人工智能環(huán)境下,具有準(zhǔn)人格的機(jī)器如何與人協(xié)調(diào)相處問(wèn)題,科學(xué)家也試圖探索通過(guò)算法給智能機(jī)器嵌入人類的價(jià)值觀和規(guī)范,讓它們具有和人類一樣的同情心、責(zé)任心、羞恥感等等。我們希望,在對(duì)人工智能程序進(jìn)行監(jiān)管的同時(shí),讓人工智能的算法遵循“善法”,吸取人類道德規(guī)范“善”的一面,從而控制機(jī)器的風(fēng)險(xiǎn)。
當(dāng)然,構(gòu)建好機(jī)器法律倫理體系并不容易。現(xiàn)實(shí)中豐富的語(yǔ)言表達(dá),微妙的情感訴求能被機(jī)器理解、接受嗎?用量化的指標(biāo)衡量善、惡等倫理概念可行嗎?還有,誰(shuí)來(lái)決定算法、設(shè)定標(biāo)準(zhǔn)?這些都是我們?cè)噲D規(guī)范人工智能發(fā)展需要面臨的難題。但給機(jī)器嵌入倫理的困難,并不意味著我們只能無(wú)所作為。機(jī)器學(xué)習(xí)輸出的判斷和行為,往往取決于它接受的信息。從這點(diǎn)看,人工智能本身并無(wú)對(duì)錯(cuò),理想的狀態(tài)下,當(dāng)前基于深度學(xué)習(xí)的人工智能算法應(yīng)當(dāng)是中性、客觀、高效的,其潛在的安全隱患、認(rèn)知偏見、法律倫理沖突等往往是現(xiàn)實(shí)社會(huì)缺陷的反映,只不過(guò)在技術(shù)的視野中被放大了。因此,要讓智能機(jī)器變得更完美,除了通過(guò)技術(shù)手段對(duì)算法進(jìn)行審查或引導(dǎo)外,更重要的或許是正視、理解并改善現(xiàn)實(shí)社會(huì)環(huán)境。只有在機(jī)器與使用機(jī)器的人上兩頭著力,我們才能創(chuàng)造一個(gè)人工智能與人類良性互動(dòng)的未來(lái)。
倫理學(xué)家說(shuō),人工智能的道德水準(zhǔn)將是一面鏡子,它反映的是人類文明的道德高度。人類社會(huì)不可能十全十美,未來(lái)的機(jī)器智能時(shí)代亦然。我們要繼續(xù)不懈努力,去創(chuàng)造更好的智能時(shí)代。