就是阿 如果頂尖科學家們 自知AI已經極速學習遠遠超過人類的智力 什麼都可以解決的時候 如果這時候給了AI一個指令是把地球變乾淨 但是忘了跟它強調說不能傷害人類 那AI如果不擇手段起來 是不是就直接在世界各地發射飛彈轟炸人類了? 有沒有AI極速學習的八卦? -- ※ 發信站: 批踢踢實業坊(pttweb.org.tw), 來自: 106.64.152.220 (臺灣) ※ 文章網址: https://pttweb.org.tw/Gossiping/M.1733159359.A.65E
OPPAISuki: 先滅了美國 36.225.154.100 12/03 01:10
zyxx: 哪個白癡國家會把飛彈連外網 114.37.193.57 12/03 01:10
whitenoise: 你講的不就天網? 223.139.91.176 12/03 01:11
meta41110: 凸( ゚д゚)凸電影演過啦請參考滾贛 1.200.19.92 12/03 01:23
scores: ai會說乾淨的定義是什麼 1.171.89.35 12/03 01:27
hek2: 炸死426 笑死 114.47.75.177 12/03 01:28
higameboy: https://i.imgur.com/BhFQhoV.jpg 36.229.64.16 12/03 01:29
c88tm: 把人類留在這個充滿污染跟鬥爭的世界才是傷 1.34.36.98 12/03 02:06
c88tm: 害人類 現在一堆不婚不生快樂一生的不就是 1.34.36.98 12/03 02:06
c88tm: 基於這樣的理論嗎 就算你加了這個但書人類 1.34.36.98 12/03 02:06
c88tm: 還是會全滅 1.34.36.98 12/03 02:06