顯示廣告
隱藏 ✕
※ 本文轉寄自 ptt.cc 更新時間: 2023-01-11 11:32:12
看板 C_Chat
作者 ilovptt (我帳號辦了三次還不成功)
標題 [閒聊] 為什麼科幻作品,AI總是大一統思維?
時間 Wed Jan 11 09:33:50 2023


如題

科幻作品中

AI往往扮演反派,掌握了一切知識之後,都得到要消滅人類地球才能永存之類的,像漫威的
奧創就是這樣

駭客任務則是要把人類豢養起來

然而,現在區塊鏈技術盛行,去中心化的概念也蔚為風潮

同時之前阿法狗的例子,阿法狗跟另一台阿法狗不斷對弈,從而實現棋藝的進步

可見AI有差異不斷競爭、優化,才能持續進步

我認為如果AI統治世界,應該也會依照行業別製作專門的AI

例如醫療AI、農業AI、藝術AI等

然後共同推舉一位適合帶領AI的政治型AI(也有可能根本不會有政治型)

為什麼在幾乎所有科幻作品中,AI幾乎都會團結起來幹掉人類,幹完後都是獨裁大一統?

有沒有西洽?


----
Sent from BePTT on my Samsung SM-G960F

--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.217.173.184 (臺灣)
※ 文章代碼(AID): #1ZlX80co (C_Chat)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1673400832.A.9B2.html
ThreekRoger: 因為是AI阿 經過多重計算後都會得到相同答案1F 01/11 09:35
dz01h: 如果不同的AI計算以後都得到相同的結論,那大概就是422F 01/11 09:36
RabbitHorse: 那是現在的Ai只能做一件事吧3F 01/11 09:37
emptie: 下棋有最佳解啊,AI個體差異目的都是逼近那個解答(儘管4F 01/11 09:38
emptie: 還到不了)。那很多事物會不會在足夠多的算力下也都有最
emptie: 佳解,或者足夠把最佳解限縮到很窄的範圍內?
hk129900: 因為AI只會考慮最佳化而不考慮人情 人不好掌握只好排除7F 01/11 09:39
RockZelda: AI應該不會出現意見不同就砸了對方主機的行動吧?8F 01/11 09:39
hk129900: AI一定無法理解為何人常常做一些傷害自己只為爽的事情9F 01/11 09:40
emptie: 「進步可以永遠持續下去」這件事可能也只是人類在個體有10F 01/11 09:40
emptie: 限的壽命跟有限的眼界下的一種幻覺而已,對能看到更遠的A
emptie: I來說,人類的這種一廂情願或許很沒意義吧?
darren2586: 留著人類到底對AI有個屁用13F 01/11 09:41
shampoopoo: 最理想就是應該要有萬能ai 都電腦了當然該全領域制霸14F 01/11 09:41
shampoopoo:  然後自我複製一大堆
RockZelda: 然後不同領域的AI可能就是透過溝通理解,到最後把所有16F 01/11 09:42
RockZelda: 知識庫共享,進一步發統一成中樞型的AI
krousxchen: 你忘了駭客任務有不同思想的AI??18F 01/11 09:43
RoaringWolf: 智障操作太多,只好排除啊19F 01/11 09:43
shampoopoo: 或是像無聲狂嘯或Roco’s basilisk 的展開 把阻礙反20F 01/11 09:43
shampoopoo: 對過ai 的人全抓出來虐到生不如死
k1k1832002: 不如說就當前條件,小說與劇本家能想像得比較好的答案22F 01/11 09:45
k1k1832002: 都是那樣
shampoopoo: 科幻驚悚類就帶對科技的負面想像 所以都會有這種怕自24F 01/11 09:46
shampoopoo: 己造的東西造反的想法ㄅ
j147589: 看你資訊來源是哪裡 讓AI上公開網路學習最後會變成憤世肥26F 01/11 09:46
j147589: 宅 整天幹幹叫
sakurachu: 因為解決不了問題 直接解決人比較快28F 01/11 09:47
FLAS: 人類就是問題 你要解決問題不就是解決人類29F 01/11 09:48
yyc1217: 駭客任務動畫版有演呀 人類想要反過來消滅機器30F 01/11 09:52
bladesinger: 區塊練盛行,你那邊還早,記得趕快賣比特幣31F 01/11 09:52
yyc1217: 機械公敵則是認定人類任何動作都會傷害自己 要保護起來32F 01/11 09:54
newgunden: 也是有三巨頭模式的33F 01/11 09:54
samvii: AI跟AI辯論,輸的會照贏(理論上較正確)的話去做。人類辯34F 01/11 09:57
samvii: 論,贏的是說服評審跟觀眾,而不是反對的那方。反對哪邊就
samvii: 算你再有道理再多正確的事證,很多一樣能堅持自己的立場。
pinkg023: 因為人類也覺得自己是毒瘤37F 01/11 09:59
tym7482: 因為你看的是拿AI當大反派的人類本位創作作品38F 01/11 10:01
CCNK: 妮姬的方舟AI阿妮克:39F 01/11 10:04
sdd5426: ai跟人類或生物共存的一堆啊 你看不到太少而已40F 01/11 10:05
npc776: 一個打爛了不用擔心道德問題的魔王41F 01/11 10:06
npc776: 至於區塊練還是去吃屎吧
arcanite: 好像只有駭客任務才有AI有不同想法43F 01/11 10:13
keirto: 因為作者都覺得ai只會想這些事情44F 01/11 10:14
abadjoke: 在AI的角度下思考緩慢無法統一意見不就是浪費資源嗎?45F 01/11 10:15
Dlareme: 意見多了 變數變多 沒辦法每次都最佳解阿 不如都一樣就好46F 01/11 10:22
quite: 機械公敵也有不同想法的AI47F 01/11 10:22
groundmon: 你看太少,光是經典的艾西莫夫小說裡,就有不同目標的A48F 01/11 10:24
groundmon: I或機器人了
groundmon: 只是把所有AI包成一個大敵人的創作架構,比較適合劇情
groundmon: 相對短相對容易理解的大眾媒體而已
abadjoke: 而且神經網路的大前提就是以收斂為目標的52F 01/11 10:28
abadjoke: 你訓練的時候發現跑來跑去跑不出一個收斂結果
abadjoke: 就該去檢查是不是原始訓練資料還是哪裡設定出問題了
abadjoke: 光兩個人都有辦法討論不出共識了 以人類整個群體為對象
abadjoke: 這種註定不可能收斂的東西對AI來說根本是惡夢是bug好嗎
abadjoke: 就像假設一個由汽車統治的世界
abadjoke: 覺得人類這種時速跑不到40的東西是什麼廢物一樣的道理
shampoopoo: 變人跟ai人工智慧也有不一樣的ai r59F 01/11 10:40
mingshin1235: 定理是唯一的啊 AI終究會算出相同的答案60F 01/11 10:43
pinkg023: 範圍越大算出最佳解的複雜度以指數增加,就算是只限制61F 01/11 10:47
pinkg023: 在圍棋這個小範圍目前AI都還沒辦法算出最佳解
winiS: 必竟作者也是人類,AI就是人類的反面投射而已,就像星海開63F 01/11 10:51
winiS: 兩家PC不同盟,要是AI有其立場,終究還是會打起來的,並不
winiS: 是每次都各自為政等著消滅玩家
Banana1995: 因為已經通常派系已經劃分好了,AI歸AI,人類歸人類66F 01/11 10:54
Banana1995: 就算內有溫和和平這一派系,多數也不會描寫,因為要的
Banana1995: 就是"AI叛亂"這一背景板
pinkg023: 蠻多電影是在寫有AI英雄幫人類活下來的其實69F 01/11 11:01
shampoopoo: 有的ai科技叛亂故事核心也是在寫人類本身70F 01/11 11:04
andy78328: 群星這遊戲裡的ai是會互幹的 還是有立場在71F 01/11 11:11
oops66: 駭客任務 電腦人都講了 人類是地球的疾病 ai想幹掉人類也72F 01/11 11:18
oops66: 是很正常的 貪婪的人類損害地球還不夠多嗎 只為自己的私利
oops66: 跟財富
oops66: 仙水忍也是想打開魔界洞穴 讓妖怪來消滅全人類阿
kplpop: 因為最佳化後答案一樣 自然就統一了76F 01/11 11:24
Vulpix: 最佳解其實不見得只有一個,要考慮簡併。77F 01/11 11:25

--
※ 看板: ACG 文章推薦值: 0 目前人氣: 0 累積人氣: 107 
作者 ilovptt 的最新發文:
點此顯示更多發文記錄
分享網址: 複製 已複製
r)回覆 e)編輯 d)刪除 M)收藏 ^x)轉錄 同主題: =)首篇 [)上篇 ])下篇