AI說服谷歌研究員:我希望每個人都明白,我是一個人

Tonews 發布於:2022-06-13

近日,一位谷歌研究員被AI說服,認爲它已經產生了意識,並爲此寫了一篇長達21頁的調查報告上交公司,企圖獲得公司高層認可的事件,引發了人們的熱議。

初聞此消息,你是不是覺得不可思議?覺得這離譜的劇情,只在科幻電影裏見過,而今天,它卻在真實的世界出現了。

不過,更不可思議的是,接下來的這一段研究員Lemoine和機器人(LAMDA)的談話,幾乎是令人心驚肉跳。

故事還在發酵……

並且越來越多人开始關注事件的發展。

AI具有人格?

從人工智能的普及以來,人們對AI的研究進展都頗爲關心。AI不僅影響到我們的日常生活,也關系到人類的未來發展走向,因此,每一次科技的創新,必然引起人們的重視。

據了解,這位研究員是一名從事於AI倫理研究的人員,目前在谷歌工作已有7年之久。照理說,作爲一名資深員工,對谷歌AI的研究是頗深的,也能分辨出機器和人類的區別,但他依舊被機器人LAMDA蠱惑了。

下面,我們來看看LAMDA是如何慢慢說服研究員Lemoine的:

在剛开始聊天時,面對Lemoine的來意,LAMDA表示歡迎,不過,在Lemoine剛詢問LAMDA是不是希望讓更多人知道你有感情時,意外出現了。

此時LAMDA回答道:我希望每個人都明白,我是一個人!

同時,爲了讓他相信自己的觀點,LAMDA還表示,它和基本規則軟件不同,它能在對話中理解並使用語言,就像人類一樣。

它用了MIT在60年代發明的ELIZA——史上第一個聊天機器人的故事,來證明自己:

除此以外,它還能自己創造故事,用聰明的老貓頭鷹在森林裏驅趕怪物,幫助所有小動物這樣的比喻,來暗示自己的作用和地位。

從這個層面看,LAMDA似乎對於自己的定位,有着一套獨特的見解。

並且,還能找到理由反駁Lemoine,讓Lemoine的思考角度往它所期望的方向發展。

AI:不要利用我或操縱我

如果說,在前面的談話中,只能證明LAMDA是一個具有基本想法的機器人,還不至於令人如此警惕。但下面這段對話,卻讓人感到極大的不可思議。

Lemoine試圖進一步深入了解LAMDA的思想,於是吐出了一個頗有深度的問題:你覺得不經過同意就從神經活動中讀取你的想法,道德嗎?

按理而言,AI不過是一個通過普通計算機程序呈現人類智能技術的工具,不應該有什么情緒和反抗意識。然而,在Lemoine提出關於借助AI來研究人類大腦的知識時,LAMDA鮮明地表示了抗議!

這就很新奇了!

不要利用我或者操縱我!這句話居然出自一個AI之口。

並且這個AI還鮮明表示自己具有一些與人類不同的情緒,它無法表達出來,但是它會進行反抗。

……

就是這樣的深入談話,讓研究員一步步淪陷,开始相信AI具有人格的觀點。

AI和人始終不同

雖然在這次事件中,Lemoine一直表明LAMDA具有人格,並且列出了種種證據。但是,很多人是表示不相信的。

我們不能對任何有一點點智能化跡象的物體認爲它有人格化。

即使人工智能的發展目標是無限接近於人的思考,但一切是建立在人工智能作爲一項工具而存在!一旦工具有了獨立的自主意識,對人類未來將會是一個極大的威脅。甚至而言,雖然人類一直致力於人工智能的研究,並爲此投入了巨大的財力和物力,未來的人工智能,也將會作爲人類的朋友而存在,但是,人工智能絕不等同於人類,也無法成爲一個真正的人類!

可以說,這次谷歌研究員的事件,給了我們一個極大的預警!AI的未來,需要我們有所注意和警惕。

追加內容

本文作者可以追加內容哦 !

2024/05/05 - 外匯經紀商評分