作者 TreeMan (好啊...)標題 Re: [新聞] 馬斯克等千人簽署公開信:呼籲暫停巨型AI時間 Wed Mar 29 21:28:12 2023
公開信的原文:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
它裡面提到4個自我省思,其中第1點:假訊息
是曾經/正在發生,而且造成實質損失
人類判讀訊息真實性時,經驗/直覺可以在新證據 (假設是新聞、訊息) 不多、不強
或物理上不可能時,達到足夠的判斷效果
而證據的重要組成:影像、聲音、來源數
目前生成式模型已經可以很有力的產生人類無法輕易辨識的資料
以前人工時代較容易有破綻,數量也不夠多
現在就是看誰算力夠,就有機會產生足量且高品質的假資料
做為其惡性地宣傳地證據
如果時間夠長,平均來說還是可以判斷真假
然而對於反應時間短,有機會造成損失預期的假證據
平均來說不會完全相信,但會進行某種程度的防禦措施,避免損害
特別是做了也無損失的情況
例如2018年的衛生紙事件
看到新聞的人想著下班先買個衛生紙放著
然後看見彼此購買的行為又強化了缺少的感覺
最後就可以成真到某個時間點
而當生成式AI足夠優秀的時候 (也許future of life預期可能是近年)
具有足夠算力的組織或人
可以大量、多樣化的高品質假證據時
就可以透過網路媒體 (傳統媒體為了避免落後也會盡快跟上)
快速地傳給許多人
再透過經實驗確認過的真實帳號之反應狀況
來評估滾雪球的狀態
並早一步布局較有可能的成真的項目,從中獲利
假想某個上市公司A的賺錢方式是用衛生紙做蓮花來賣
然後有個邪惡組織有規劃的短時間發佈 多張不同超市 缺衛生紙的照片
搭配一些小短片 透過合成人臉和聲音 告訴你真的缺衛生紙啦
因為衛生紙遭到大量搶購 (缺原料)
上市公司A就沒蓮花衛生紙可賣,邪惡組織就空爆他
或是趁他緊張 (時間壓力) 高價賣他衛生紙
整個過程就像高級的詐騙簡訊一樣
只是詐騙簡訊是廣發後,屬於易受騙的族群 (假設2.5%) 會中招
現在因為假證據升級了
邪惡組織可以透過"平均來說"的反應 進行後續規劃
當然邪惡組織也有可能因為人類的非線性反應受損
比如說衛生紙都被囤光了 他因為知道這是假消息 所以沒有多買
結果這組織就買不到 只好拿錢擦屁股 或去買更貴的衛生紙
另外是法律面
它也比詐騙簡訊更高級了
因為你不是造成收訊者的損失
是造成收訊者反應後 某個倒楣鬼的損失
你也沒有直接從倒楣鬼那邊偷搶拐騙錢
而是依據他損失的反應而正當獲利
這直覺很難...從法律去有效的制裁
承上,Future of Life Institute提出的應對方向是甚麼呢?
生產設備可追朔:...oversight and tracking of highly capable AI systems and
large pools of computational capability...
AI浮水印(類似基改標籤):...provenance and watermarking systems to help
distinguish real from synthetic and to track model leaks
AI傷害的責任歸屬 (法律)...liability for AI-caused harm...
金援確保AI安全的研究...robust public funding for technical AI safety
research...
建構應對AI危害的組織 (AI管理局?) ...well-resourced institutions for
coping with the dramatic economic and political disruptions
(especially to democracy) that AI will cause...
一直以來都有針對生成式模型的辨識模型研究
但短期應該打不贏,因為生成式AI才吸睛又吸金
用AI去辨識誰是AI,避免災害,比較像公共安全
而且技術上應該也很難 如果這樣防衛模型是可買到的
就可以用它加入生成模型的訓練
當然這樣也可以增加生成式AI的成本就是
至於他們提到的6個月,感覺有點謎
股點...
如果有在開發浮水印類技術或符合前述目標的公司
應該可以投資看看 至少符合他們明面上的目標吧
--一些小補充--
現有AI建構的概念是輸入 -> 模型 -> 標籤
標籤就是你要求模型將輸入轉換後的輸出目標
輸入 (文字敘述) -> 標籤 (目標影像)
真實人類的生成內容充滿了整個世界,很容易取得
但如果要訓練辨識生成內容的AI (很粗略的稱作防衛型AI),輸入與標籤就成為主要的問
題
你要先拿到生成模型 (GAN),可是沒有開源的你要去哪拿?
就算你知道了網路架構,不同的訓練方式和資料集差異
都可能讓你的防衛型AI無法生效
自己用人判讀,這很難成為有效率的方式
其他非生成式AI的應用,對於惡意防禦也都很苦手
攻擊的方式無窮無盡,而且不像以往程式病毒,攻擊可以透過多個層面進行,包含實體
舉例來說,我建立了偵測手槍的物件識別模型
就假設只要監視器畫面出現手槍,不會誤判而且一定抓得到 (這樣好的模型只存在於幻想
世界)
但槍手只要把槍放在娃娃或遮蔽物內就好了,模型就die...
你拿不到惡意對手的模型,但惡意對手拿得到你的防衛產品來研究
總之,在資訊傳播的惡意使用,可以透過生成式AI達到品質更高、更迅速的產出
如果停6個月可以將生成式內容都加上浮水印或有效溯源,我覺得OK啦
但各個平台變成要去增加檢查浮水印的功能 (?開API去賺錢)
至於說是要妨礙對手競爭 可能性不高
在一般閱讀內容的影像、語言、聲音來說,資料充足
開發 (訓練/最佳化) 速度 -> 硬體 -> 銀彈
訓練架構已發展到盡可能減少人的操作,並且硬體條件足夠下訓練時間可充分縮短
特別是參數調整、網路設計最佳化也可透過訓練完成 -> 進一步縮短時間
生活化的生成式內容狀況是這樣
但很多領域的AI還很早期 (資料/標籤缺乏或昂貴),有銀彈也沒用
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.73.201.119 (臺灣)
※ 作者: TreeMan 2023-03-29 21:28:12
※ 文章代碼(AID): #1a93pqZa (Stock)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1680096500.A.8E4.html
※ 同主題文章:
Re: [新聞] 馬斯克等千人簽署公開信:呼籲暫停巨型AI
03-29 21:28 TreeMan
推 jimmihg: 以目前AI成長的速度,很快就會有AI生成Musk的影像跟聲音,而且會是極難辨識的情況
這也是Sam Altman推出chatGPT的原因,監管必須盡快現在的政府根本不知道AI成長的速度有多快2F 03/29 21:36
推 aimlin: 不用監管 進步才快6F 03/29 21:44
推 abccbaandy: 同1F...這個哪需要AI,看我們不就是這樣,媒體各種嘴砲,人民也隨便相信7F 03/29 21:46
推 aimlin: 等ai畫a片9F 03/29 21:47
推 chaoliu: 沒錯啊 黑道詐騙僱幾個碼農作假app 假網站博弈就賺翻了 AI工具他們能拿來怎麼騙 你想想就發毛 開源是錯誤的 絕不能開源 馬斯克這點是錯的 AI交給微軟這10F 03/29 21:52
推 linkmusic: 就是以前雇網軍作的事,現在靠AI就能更大量帶風向了13F 03/29 21:53
→ chaoliu: 種有信譽的公司安排才是對的14F 03/29 21:53
→ shliau: AI買股當沖期貨程式15F 03/29 22:06
推 s900527: 微軟有信譽?哪一個宇宙的微軟16F 03/29 22:11
推 wts4832: AI發展阻擋不了的,最後只能用AI對抗AI,結論就是快買AI股票發大財18F 03/29 22:17
→ nwoyao: 還不是人為的假訊息害的 笑死20F 03/29 22:25
→ codotsun: 笑死 這樣不就共產極權才會做的事
我沒辦法控制 所以全部ban掉就好21F 03/29 22:27
推 clairehao: 第一個論點就很奇怪 ai更進步反而假訊息判斷會更強吧 雖然假訊息也會變種 但科技不就是這樣要發展改善下去嗎23F 03/29 22:32
推 boringuy: 你可以反向思考,利用AI過濾大量訊息分辨假訊息
還可以抓出源頭在那,科技只是工具怎麼利用的是人26F 03/29 22:36
→ hnjsh: 看看本站的第一大版列車發車的次數,時代在進步,群眾分辨假消息的能力卻越來越差了33F 03/29 22:52
推 lavign: 以後line上聊天你媽也不一定是你媽 可能是AI35F 03/29 23:08
推 vicklin: 簡單來說就是利用AI的犯罪效率快要高到沒辦法防了36F 03/29 23:11
推 lavign: 生成式zero day attack人類是擋不住的37F 03/29 23:13
推 part19: 掌握資訊的就贏 中間的往下沉 弱勢的永遠不得翻身38F 03/29 23:28
→ opencat: 跑不贏別人 只好鼓譟暫停比賽 :D39F 03/29 23:39
推 sd785: 歐盟已經開始討論針對AI立法了 可見疑慮真的很大40F 03/30 00:21
推 honglu587654: 說到假訊息,如果是擠兌的假訊息,會不會造成恐慌?畢竟現在把錢賺走也是在手機動動手指就能完成的事*轉46F 03/30 06:02
噓 bleedwolf: 保守派思維,30年前:別看電視, 20年前:別上網,10年前:別用智慧手機,現在:我們要禁止AI, 事實就是,你永遠檔不住科技的進步,只能趕快跟上然後學會應用49F 03/30 08:39
※ 編輯: TreeMan (42.73.201.119 臺灣), 03/30/2023 09:00:41
→ SkyShih: 你講的不說AI,我還以為是台灣黨媒54F 03/30 09:31
推 seemoon2000: 說實話 現在ai的進步速度 6個月可以讓落後很多的大幅追上 只有落後方會接受這種條件 要監管倒是沒話說55F 03/30 09:58
推 acgotaku: 現在技術無法判別資訊的正確性的情況下
只能對所有在網路上的文字 圖影 保持不可信的態度58F 03/30 11:31
噓 miyazakisun2: 用Ai對付ai
孤狗口罩的布來源 幾秒鐘就破解留言了 問題就是沒查證的習慣
硬要短時間衝來衝去搞高風險 然後怪環境 怪科技60F 03/30 12:31
噓 quartics: AI進展太快,立法跟不上,一定是衍生一堆問題,加上會大量失業,雖然技術造成生產力大幅提升,但結果不見得就真的造福大多數人66F 03/30 19:57
--