99精品久久精品一区二区,欧美日韩国产精品自在自线,亚洲AV无码一区二区二三区,同桌上课用手指进去了好爽

云棽哲智能科技(上海)有限公司云棽哲智能科技(上海)有限公司

機器人競選市長,是時候談?wù)剻C器人倫理了

18-08-22

    機器人競選市長了!

 

    沒錯,這種存在于科幻小說中的劇情如今照進了現(xiàn)實生活中。近日,日本一個機器人提名為多摩市市長候選人,承諾將對所有市民一視同仁,不偏不倚,競選口號為“為每個人提供公平、均等的機會”。

 

 

    機器人競選日本多摩市市長

 

    初人們以為這僅是競選者的cosplay,而后來發(fā)現(xiàn),這是一個如假包換的機器人,其后AI候選人開通了自己的官方推特宣傳賬號,還給出了自己競選的政見:讓政治變得更加公平。

 

    其后,機器人還列舉出了自己的幾大競選優(yōu)勢:

 

    機器人沒有情緒也沒有欲望,在處理政務(wù)時,既不會夾帶私人感情也能防止腐??;

 

    機器人不用休息,可以長時間高強度工作;

 

    相對人類隨著年齡增長的記憶力退化,機器人可以始終保持大量信息存儲

 

    無獨有偶,此前的一位來自新西蘭的機器人公務(wù)員“薩姆”也賺足了眼球,“薩姆”能夠回答市民提出的有關(guān)住房、教育和移民的問題,而且其自己曾“表示”,在做決定時將會考慮每個人的立場。

 

    事實真的如此嗎?機器人當(dāng)市長這件事兒靠譜嗎?智能相對論分析師柯鳴認(rèn)為,想要機器人真正勝任市長一職,甚至讓機器人大范圍的替代傳統(tǒng)公務(wù)員,不得不思考這幾個問題。

 

    機器人能否成為道德主體?

 

    既然要辦事,那么就要為自己可能出現(xiàn)的錯誤承擔(dān)責(zé)任。但機器人是否能夠獨立承擔(dān)自身責(zé)任成為道德主體呢?我們先來看看著名的約翰·希爾勒(John Searle)“中文房間”實驗:

 

    想象一位只說英語的人身處一個房間之中,在封閉的房間中其只攜帶一本寫有中文翻譯程序的書。寫著中文的紙片通過小窗口被送入房間中。根據(jù)Searle,房間中的人可以使用他的書來翻譯這些文字并用中文回復(fù)。雖然他完全不會中文,Searle認(rèn)為通過這個過程,房間里的人可以讓任何房間外的人以為他會說流利的中文。

 

    “中文房間”實驗

 

    當(dāng)然,“中文房間”實驗也引起了起了人們對于人工智能的一些爭論。

 

    但在這場爭論中,人們并沒有排除人工智能體自主道德設(shè)計的可能性,而實際上人工智能體的設(shè)計與智能體作為道德主體的建立還是有區(qū)別的。關(guān)于意識、理解力等概念的認(rèn)識與如何才能使機器人的行為符合道德規(guī)范的實際議題基本上是不相干的。

 

    那么,我們再來看看人類道德在機器人領(lǐng)域是否有一定的適用性。

 

    道德規(guī)范在我們的日常生活中普遍存在,也存在于有組織的社會活動中,在馬克思看來,道德是對特定經(jīng)濟基礎(chǔ)反應(yīng)的上層建筑。

 

    但由于人工智能科學(xué)日新月異,以及自主機器人廣泛的存在與應(yīng)用,自主機器人早已參與了我們繽紛多彩世界中的生活,世界不論怎樣都已不得不討論自主機器人的道德地位了。

 

    溫德爾·瓦拉赫與科林·艾倫教授合著的《道德機器:如何讓機器人明辨是非》一書中對于機器人是否應(yīng)當(dāng)或者能夠擔(dān)負(fù)起道德責(zé)任、人工道德智能體(AMAs)提出了解決方案:

 

    一種是自上而下式的理論進路,是指通過將機器人所要掌握的知識與能力轉(zhuǎn)化為一系列算法規(guī)則,把這些規(guī)則植入機器人的“大腦”,從而獲得“認(rèn)知”;

 

    另一種是自下而上式的發(fā)展進路則是通過模擬孩童的成長過程,讓機器人在不同環(huán)境的相互作用中習(xí)得復(fù)雜行為與認(rèn)知的能力與知識。

 

    從目前服務(wù)類(如公務(wù)員)機器人的表現(xiàn)來看,其深度學(xué)習(xí)、高度自動化等依然是其固有痼疾的基礎(chǔ)上,談?wù)摍C器人自身的道德主體性也許行之過早了。

 

    機器人公務(wù)員真的能夠毫無偏見嗎?

 

    從日本AI機器人競選市長到新西蘭機器人“薩姆”,無一不是宣揚其具有公正性、無任何私情。

 

    然而,在還未到達“超人工智能”的當(dāng)下,機器人難以形成自身思想之前,算法的偏見,似乎一直都是難以克服并為人詬病之處。

 

    所謂的“算法偏見”是指在看似沒有惡意的程序設(shè)計中,卻不自覺的帶有設(shè)計人員或開發(fā)者的偏見,或者中擬定程序的過程中,采用的數(shù)據(jù)是具有一定偏見性的。

 

    這種情況帶來的后果是巨大的,例如,Google搜尋被曲解、合格的考生無法進入醫(yī)學(xué)院就學(xué)、聊天機器人在推特(Twitter)上散布種族主義和性別歧視信息等。

 

    算法偏見造成最棘手的問題之一是,從事程序設(shè)計的工程師,即便本身沒有種族、性別、年齡歧視等傾向,也有可能造成偏見。AI本質(zhì)上就是為了自行學(xué)習(xí)而設(shè)計,有時它的確會出錯。

 

    在AI招聘領(lǐng)域,一個最為典型的案例就是頂級管弦樂隊選角,古典音樂過去一直以男性為主,但在20世紀(jì)70年代引入了盲目的試鏡,這使頂級樂團的女音樂家增加了五倍以上。

 

    但是,這并沒有解決根本性的問題,第一批通過盲目試鏡入選的女性依然無法融入日常演奏,樂隊不得不尋找其他男性演奏家。

 

    而我們的AI招聘:就像管弦樂隊的幕布一樣,機器學(xué)習(xí)是一種范式轉(zhuǎn)變,有可能消除長期存在的偏見,但它本身并不能解決幾個世紀(jì)的偏見。

 

    回到機器人公務(wù)員領(lǐng)域,其工作內(nèi)容中也不乏“價值判斷”的部分,如材料完整度如何可以報賬?組織部評價評優(yōu)又是以何為尺度?而作為市長的日常事務(wù)的裁斷更是需要一定的標(biāo)準(zhǔn)。而目前的機器人深度學(xué)習(xí)能夠?qū)崿F(xiàn)的就是“算法裁決”,這又再次落入了算法偏見的窠臼之中。

 

    服務(wù)類公務(wù)員機器人,你敢安心讓它上崗嗎?

 

    事實上,大眾并不敢讓機器人完全代替公務(wù)員工作,包括市長。

 

    市長在日本的競選中敗了,而且很徹底。截止至最后日本多摩市的公投結(jié)果顯示,“AI市長”僅獲4013票,較現(xiàn)任多摩市長阿部裕行獲得的34603票相距甚遠。

 

    《人工智能》里大衛(wèi)和媽媽的一段對話讓人印象深刻。當(dāng)大衛(wèi)詢問媽媽晚飯吃什么時,媽媽告訴它,機器人是不能吃飯的。大衛(wèi)卻說:“我知道,但是我喜歡和家人一起坐在餐桌上。”

 

    正如劇中男主角所說,大衛(wèi)既然懂得愛,那他也應(yīng)該懂得恨。當(dāng)人工智能愈發(fā)先進、愈發(fā)智能時,人類會不會被科學(xué)這把利刃劃破雙手?

 

    正如當(dāng)下機器人動手術(shù)、機器人管理金融等領(lǐng)域,許多人對此依然無法完全信任。機器人終究是少了一點“人氣”,在公務(wù)員領(lǐng)域,沒有了面對面的噓寒問暖,只是例行公事地辦證取證,工作似乎也少了許多樂趣。

 

    此外,機器人公務(wù)員的應(yīng)用范圍也是相當(dāng)狹窄的。從目前來看,隨著世界數(shù)據(jù)化程度不斷加深,與個人相關(guān)的數(shù)字類信息可由機器人逐步替代,如社保處理、出國簽證、納稅等;另一類型的公務(wù)員機器人則與富士康工場里機器人替代傳統(tǒng)的工人類似,通過生物識別確認(rèn)人員身份等類型的工作均可由機器人充當(dāng)。

 

    但是,AI也未達到完美的程度。比如許多開發(fā)者經(jīng)常會把他們的偏見寫入人工智能項目,最近一項研究也發(fā)現(xiàn),AI的語言翻譯工具已經(jīng)具有種族主義和性別歧視的偏見。

 

    阿西莫夫在《我,機器人》一書中曾提出機器人三定律:

 

    第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

 

    第二定律:機器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;

 

    第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

 

    顯然,目前機器人仍然遵循著這基本的要求,但隨著機器人技術(shù)的日益發(fā)展,會有更多類型的機器人出現(xiàn),當(dāng)真正機器人與人類倫理發(fā)生沖突時,如何協(xié)調(diào)人工智能與人類的關(guān)系也將成為當(dāng)今時代下必須重視的課題。

 

    當(dāng)然,也希望霍金的預(yù)言永遠也不會成為現(xiàn)實。

返回頂部 ↑