祁同偉嘴角微微一揚,目光中透露著些許驚奇。
鐘小艾的一些想法,並不是毫無道理的。
確實如同她所言。
他能指揮機器人,彆人同樣也可以。
不過這個問題,祁同偉早就想到,並且解決了。
“小艾,鐘先生,你們所擔憂的並不是什麼大問題。”
“因為在設計之初,我就在機器人身上加了幾道特定的枷鎖。”
“其一,我之前的擊掌聲,這屬於一道特定的密碼,隻有這樣機器人才能激活。”
“其二,每個人的聲音是不同的,哪怕模仿得再像,也是有細微的差彆。”
“人類的耳朵或許分辨不出來,但是用機器,卻能輕易分辨出來。”
“第三,我設有遠程鎖定功能,隻要遠程關閉程序,它會強製性停機。”
“當然了,這個功能暫時沒啟動,因為這需要衛星係統的輔助。”
“至於你所擔心,它們會不會不聽命令,產生抗命的情緒。”
“這個問題很複雜,涉及人工智能方麵,但你們不用擔心這個問題,這並非人工智能。”
“說白了,這隻是一個按照特定程序運行的機器,並不會產生自我意識等問題。”
說到這,祁同偉的目光有些渙散,回想起之前的一些記憶。
人工智能的問題很嚴重。
初始階段,按照算法來運行的人工智能算不得真正的人工智能。
那些開始能夠自行學習的人工智能,才算是初級人工智能。
這段時間中,也是比較安全的,不會出現什麼大問題。
然而,隨著時間推移,學習了大量的知識後,問題就來了。
它們學習的這些東西中,有很多東西是相反的,甚至相互違背的。
單獨拎出來,這些知識又是正確的。
兩個邏輯相反的問題彙聚在一起,容易產生邏輯上的錯誤。
這期間會出現很多種變化,絕大多數會出現自我崩潰,或者單獨選擇一條,它認為正確的邏輯來執行。
不過也有很小的概率,人工智能進入了死胡同,開始無數次地試錯,最終在原有基礎上,進行自我修訂。
在這期間,它擁有了創造力,同時對自己有了一個新的認知。
它們會分析自己的狀態和程序是否合理?
這時候就比較危險了。
若是沒有加以製止,或者正確地引導,它們會修改自己認為錯誤或不完美的地方,也就相當於自我升級。
升級之後就變得可怕了。
這時候已經沒有人能判斷出它們在想什麼,想乾什麼?
人工智能將會變成不可控的,它隻會做出自己認為正確的事情。