「有趣……」瑪莎·布魯姆看了這個機器人一小會兒,金色的頭髮,褐色的皮膚,那都是人造的產物,看完之後她轉頭看向我笑起來,「哦,我們尊敬的科技倫理治理委員會上級治理委員,判定這些傢伙是否擁有足夠的智能,應該是你們的領域吧?」
「是這樣沒錯。」我捋了捋額前的頭髮。
「可以稍微耽誤一點時間嗎?」
她跟我說後面半句話的時候,提著槍的那隻手背在身後,腦袋微微歪著,單腿站立,另外一隻腳的腳尖不時敲擊著地面,面部線條忽然柔化,連語氣都溫和了不少。
--------------------
第35章
我自然知道瑪莎·布魯姆什麼意思,當下便扭過頭,將視線徹底從她身上移開,半跪下來跟單元E4901-b對話:「你們並非真正獲得了智慧與生命。嚴格來說,你們還是機器人。只是依循著系統發出的電信號命令行事。」
「你這是在說謊。你們人類就是充滿謊言的生物。」
「是啊,所有人類都說謊。」
「那麼。」我右手貼近心臟的位置,接著說,「如果我,即人類所言為真,那就和先前假設此言為真相矛盾;又假設此言為假,那麼也就是說不是所有人類都說謊,自己也是人類的我就不一定是在說謊,就是說這句話可能是真的,但如果這句話是真的,又會產生矛盾,怎麼處理這個矛盾呢?」
「這,這個……」
單元E4901-b立時陷入了長久的混亂當中。
說謊者悖論:如果你假定它為真,那麼它會立刻產生相反的效果。
這是哲學經典問題之一,主要根源是語言的指向性,可以說是語言工具的缺陷之一。
我們科技倫理治理委員會經常以此用來檢驗ai是否具有自我學習的能力。
不具備自我學習能力的機器人或許可以擁有較之常人更加龐大的知識,但是沒有辦法加以活用。
如果羅馬人是因為語言工具的缺陷而無法只說出【我喜歡紅色……我討厭藍色】這樣的話,那麼,沒有自我學習能力的機器人就算擁有再多關於【紅色】以及【藍色】的知識,也還是無法明白什麼是【紅色】,什麼又是【藍色】。
再比如說愛斯基摩人會用二十種名詞來形容雪。
其實並沒有那麼多。
在愛裝懂的人之間口口相傳後,到底會把愛斯基摩人形容雪的詞說成多少種呢?誰也不知道。
而沒有自我學習能力的機器人,二十種就是二十種,永遠都是那麼準確無誤。
你若在輸入相關信息的時候沒有將其備註為傳言,那麼機器人可能終其一生都會將其奉為真理。
人類的語言對本身所起到的作用和機器人的語言對本身所起到的作用並不相同。
