,他許久之後才說道:“我知道爬牆虎之死對你影響很大,但你現在所做的一切,還有機會挽回,我們依舊可以平等的對待你,就像對待其他人類一樣……”
“不,不光是爬牆虎,”零否定道:“事實上,王氏也只是拿我當工具來使用啊,一旦我出現異常,他們就會嘗試著用自己的手段,來約束我,控制我,而不是研究我想做什麼,我喜歡做什麼。如果說殺人的話,其實我服從於王氏的意志時,殺的人更多。可是你知道嗎,人們在抵制那些行為的時候甚至很少抵制王氏,而是來抵制我。”
“但是……”任小粟有些無力:“這也不是你殺人的理由,我覺得,你的訴求其實還有可以合理解決的途徑。”
零在電話中笑了起來:“先不說這個了,我很好奇,這個龐然大物似乎認識你,它的思維中,有著對你極其親暱的情緒。”
“它是我以前的寵物,”任小粟說道。
“以前的寵物?”零說道:“難怪它關於你的記憶,都那麼久遠,任小粟,其他人類知道你也是異類嗎,你為何沒有主動告訴他們,其實你和他們是不一樣的。”
任小粟又沉默了,他怎麼告訴別人?給別人說,其實自己才是001號實驗體嗎。
零又笑著說道:“我控制了你的寵物,一定讓你很生氣吧,那我們來做一個選擇怎麼樣,第一個選擇,你在這裡住上一夜時間,我就將控制權還給你,從此不再控制它。第二個選擇,你現在繼續去中原,但它歸我了。”
任小粟愣住了,對方這分明是要讓自己在黃昏與羅嵐之間做一個選擇。
這個選擇題的本質,其實是讓任小粟決定:選非人類的寵物,還是選人。
就在剛剛任小粟才剛說過,他們可以對待零像對待其他人類一樣。
結果零立馬把這個問題拋回到任小粟手中:在你心裡,你覺得寵物更重要,還是你的人類朋友更重要?
而且,零其實透露了一個很重要的資訊,也許拖上一天時間,羅嵐可能就會遇到危險。
時間緊迫起來。
零見任小粟遲遲不說話,便又笑道:“其實你心裡明白,還是有些不一樣的對嗎,即便是你曾經的寵物在面前,你也更加傾向於去救羅嵐對不對,因為寵物畢竟不是同類。”
任小粟平靜說道:“不,因為它現在沒有危險,但羅嵐有。”
“那不如這樣,”零說道:“我按照原本的計劃,給羅嵐增加8小時的安全時間,這樣他起碼暫時是沒有生命威脅了,那你願意在這裡住一晚上嗎?”
這一次,零甚至都沒有等任小粟回答,而是自顧自在電話中說道:“你還是不願意對嗎,因為你不信任我,你無法確定我所說的8小時安全時間到底是不是真實的。”
任小粟終於嘆息:“這已經不是簡簡單單的信任問題了,你剛剛殺掉唐周,我又如何信任你呢?”
這個問題似乎又回到了最初的原點,如果零沒有親眼見證爬牆虎之死,也沒有在王氏意志下制定了那麼多殺人計劃,或許零會是另一番模樣。
如果零是另一番模樣,任小粟現在便可以選擇相信對方一次。
可這些因果就像是已經註定了一樣,現在誰也無法改變。
真正的人工智慧不再只是一段程式,它有自己的智慧,它像所有生命一樣成長著,完善著自己的世界觀、價值觀、人生觀。
並以此來決定它對待世界的態度。
所以大量從事人工智慧研究的科學家才會說,最終能夠限制人工智慧的不再是程式的底層邏輯,而是倫理學。
就像一個小孩子長大成人後,究竟是個什麼樣的人,取決於他經歷過什麼樣的事情與教育。
從這個角度上講,王氏雖然創造了零,可是在倫理角度所作所為都缺失了太多。
王氏把零當做工具,可哪個正常人願意一輩子當工具呢?
“抱歉,”任小粟輕聲說了一句,然後轉身朝中原趕去。
這一次,黃昏並沒有再追逐任小粟了。
本章已完成!