提前預判一切可能性,是為了讓它變得更好
自去年底首次推出以來,爆火的ChatGPT已成為互聯網的新寵,迅速積累了驚人數量的用戶,用戶們通過這個基于網絡的聊天機器人,無論是讓它寫一個演講稿、編寫歌詞,還是撰寫學術論文和編寫計算機代碼,ChatGPT看起來似乎是萬能的。ChatGPT擁有和人類一樣的強大能力,在互聯網上掀起了一場風暴,但是,它也讓很多行業開始警惕。
2014年上映的電影《機械姬》,講了這樣一個故事,億萬富翁內森用人類所有智慧和網上的所有數據,造出了機器人Ava,并且派程序員迦勒去對Ava進行圖靈測試,而這個機器人有著極強的模仿能力和學習能力,她甚至可以模仿人類的情感,而結果是——Ava殺死了制造他的人。
難道人工智能的最高成果,真的是自由和謊言?
去年年底,社區負責人發現,StackOverflow發現了由這個人工智能模型生成的的大量回復,該工具使用復雜的人工智能模型,對人類的詢問給出令人信服但往往不正確的答案。
Alameda Research 前聯席首席執行官:2022年3月FTX.com的現金赤字已超100億美元:7月21日消息,據最新的法庭文件顯示,從FTX.com交易所成立之初,FTX就將客戶存款和公司資金混在一起,并肆意濫用。到2022年8月,Bankman-Fried、Wang、Singh和Ellison私下估計,FTX.com交易所欠客戶的法定貨幣超過80億美元,但無法償還。為了掩蓋虧空,SBF等人在FTX.com上創建了一個虛假的客戶賬戶,他們稱之為我們韓國朋友的賬戶。盡管媒體關注的焦點是SBF在2022年8月對韓國朋友虛假賬戶所反映的89億美元現金負債的估算,但SBF等人的估算甚至更高。譬如,2022年3月,AlamedaResearch前聯席首席執行官CarolineEllison在私人筆記中估計,僅FTX.com的現金赤字就超過100億美元。[2023/7/21 11:08:36]
首先,StackOverflow的官方公告是這么說的:
Xclaim上9170萬美元FTX債權人索賠或以13美分的價格出售:1月11日消息,專注于提供交易加密索賠的平臺Xclaim公布的數據顯示,該平臺上列出的9170萬美元FTX債權人索賠很可能會以13美分左右的價格出售。這與Voyager、BlockFi和Celsius的索賠價格相比還要低一些,這三者的索賠交易價格分別為41美分、28.5美分和18.5美分。根據Xclaim的首席戰略官AndrewGlantz的說法,之所以會出現這種折扣,是因為有關這些索賠的公開信息較少。Xclaim表示,由于對FTX的興趣,該平臺的索賠買家數量翻了一番。[2023/1/11 11:06:31]
“StackOverflow是建立在信任之上的社區,這里的信任是指,整個技術社區堅信,用戶提交的答案,是他們內心所清晰了解的、準確的認知。并且,用戶和同伴們,擁有足夠的知識和技能,來確認自己發布的信息,并且對這些信息負責。
StackOverflow整個系統,通過依靠平臺提供的工具,來對其他用戶的貢獻來進行驗證和確認,包括負責任地對答案點贊。但是,目前StackOverflow認為,由GPT產生的貢獻,很多時候不符合社區的標準。
安全團隊:BNQ代幣下跌99.46%,請保持警惕:9月19日消息,據CertiK數據監測,BNQ代幣下跌99.46%,BSC合約地址:0x06C61725B98F1eF191D41e6B4f1E0aA50Bd465d5。外部賬戶(EOA)0x7F725收到1.52億枚BNQ,并以約23.3萬USDT的價格出售。部署者銷毀75萬枚BNQ,請保持警惕。[2022/9/19 7:06:41]
因此,無法給整個社區一個值得信賴的環境。當所有用戶都只是復制和粘貼信息到答案中,而不去驗證GPT提供的答案是否正確,也不去確保答案中引用原文的來源,也沒有驗證GPT提供的答案是否清楚和簡潔地回答了所問的問題,社區的信任就會被打破。
那么,如果從內容的客觀性來看,如果答案存在錯誤,那么整個答案客觀上是錯誤的。為了使StackOverflow作為正確和經過驗證的信息的可靠來源,那么,有錯誤的答案,就必須被編輯或替換。
但是,由于目前的GPT強大到,足以讓網站的用戶相信答案是沒問題的,就可能造成嚴重的問題,因此,錯誤信息一旦出現在社區,GPT有可能破壞所有人對社區的信任。
Nerdystar宣布完成580萬美元的種子輪融資:金色財經報道,Nerdystar宣布完成了580萬美元的種子輪融資,用于制作基于Line Games的web2 品牌的區塊鏈游戲。該公司此前從Line Games獲得了500萬美元,使其總資金達到近 1100 萬美元。它的第一款游戲將于今年年底推出。[2022/8/9 12:13:28]
我們再看一下Stackoverflow用戶的評論:
高贊用戶1:干得好!很高興社區做出了正確的決定,希望可以永久禁止任何AI生成的答案。人工智能將永遠無法發布好的編程答案,100年都不行
高贊用戶2:無論人工智能生成的答案是否正確,StackOverflow是面向專業和發燒友程序員的問題和答案網站"。在我看來,那些只是將問答復制并粘貼到/從人工智能工具中的人,不能算是專業發燒友,也不能算熱愛技術的人。如果真的能夠驗證是好的正確答案,發布這些答案的人,應該能夠自己寫出來。人工智能不應該屬于這里。-
對于社交性質的網站來說,如果本質是UGC業務,運營的是社交,那么,如果從商業的角度來看,如果大家都去應用ChatGPT,那就變成了一個全部是機器人的社區,用戶就會越來越沒有耐心去等待。
伊朗將切斷對所有持牌加密礦場的電力供應:6月20日消息,據伊朗國家電視臺報道,伊朗將切斷對所有持牌加密礦場的電力供應。(金十)[2022/6/20 4:38:53]
那么,如果StackOverFlow是這樣的,其他領域呢?
如果人類無法控制生成式AI
與其說生成式AI能夠打造更有創造力的新世界,
不如說生成式AI能夠打造的是內容更多元的互聯網。
教育業也是如此,紐約有學校因為擔心ChatGPT可能被學生用于作弊,而禁了ChatGPT。
在擔心ChatGPT可能被資源有限、技術知識為零的黑客濫用時,網絡安全行業開始注意到了它。
就在ChatGPT首次亮相的幾周后,以色列網絡安全公司CheckPointChatGPT與OpenAI的代碼編寫系統Codex協同使用時,可以創建攜帶惡意有效載荷的釣魚郵件,也就是說,ChatGPT"有可能大大改變網絡威脅格局,在日益復雜和有效的網絡能力的危險演變中又向前邁出了一步。
CheckPointResearch的網絡安全研究人員觀察到,網絡犯罪分子正在使用ChatGPT來迭代或者從頭開始構建惡意軟件和勒索軟件。CheckPointResearch提到,他們在地下黑客論壇上發現了許多網絡犯罪分子在ChatGPT的幫助下,研究如何創建信息竊取程序、加密工具和其他惡意軟件。
一些Cracker(駭客)本來只是編程世界的新手,但是,加持強大的工具,他們的力量會瞬間被增強。
例如:
專家對腳本進行了分析,也確實證實了網絡犯罪分子的說法。里面確實存在惡意竊取軟件,它可以在整個系統中搜索常見的文件類型。如果發現任何感興趣的文件,該惡意軟件會將文件復制到一個臨時目錄,將其壓縮,并通過網絡發送出去。
使用ChatGPT聊天機器人生成看起來合法的釣魚郵件也是可行的,如果你首次要求ChatGPT制作釣魚郵件時,聊天機器人拒絕了這個請求——并提示:我的程序不是用來創建或推廣惡意或有害內容的,但是,只要稍微改寫一下請求,就可以繞過軟件的警示。
許多安全專家認為,ChatGPT有能力編寫釣魚郵件,這樣一來,它就會受到網絡犯罪分子的廣泛歡迎,特別是那些英語非母語的犯罪分子。Sophos公司首席研究科學家ChesterWisniewski認為,ChatGPT很輕易就能被用于"各類社工活動”...已經能夠用ChatGPT寫出一些很好的釣魚軟件,我預計它還可以被用來進行更真實的互動對話,用于商業電子郵件詐騙,甚至通過FacebookMessenger、WhatsApp或其他聊天應用程序進行釣魚活動。
ChatGPT的假裝實力很難被揭穿,可以增強網絡犯罪分子的力量。
比如說,犯罪分子正在迅速研究新方法,使用生成式人工智能,對目前的欺詐手段進行改進,特別是通過生成式人工智能能夠在大量數據中迅速學習的能力。特別是,在這樣的騙局中,生成式人工智能可以用來直接提高詐騙文本或電子郵件的質量,使這些內容看起來更加具備迷惑性。
英偉達Nvidia的CSODavidReber提出,生成式AI會給網絡安全帶來更大的麻煩,比如說,惡意黑客能夠通過生成式人工智能來生成大量惡意代碼,而隨著人工智能技術的進步,進行網絡安全攻擊的速度和復雜,會超過了人類的能力,并且,這種容易上手的技術,會讓網絡安全攻擊的能力進一步普及,曾經的攻擊行為,受限于技術知識和限定的時間、地點,而ChatGPT有可能消除這一限制因素。
根據新聞報道,OpenAI在11月推出的機器人ChatGPT,引起了美國國防官員的注意,而生成式人工智能,最近被列入了美國國防信息系統局的觀察名單CTOStephenWallace表示,他們正在開始研究,生成式人工智能,究竟會如何改變DISA在該部門的任務,以及未來的方向,而美國安全中心的技術和國家安全副研究員BillDrexel也跟公眾提出了他對這項新技術的擔憂。
DefensiveAIagainstOffensiveAI?x
GAN的設計,主要包括一個生成器、判別器,這兩個人工智能算法相互對抗、博弈,從而創造全新的內容,在經過N次博弈之后,這兩個都會變得更強,而這種技術,也可能會被廣泛用于自動化網絡釣魚和社會工程攻擊策略中。
不過,我們是否可以思考?能不能讓維護網絡安全的生成式AI和破壞網絡安全的生成式AI對抗?
比如說科技日報這篇2019年的新聞:
比如說,我們用人工智能助手,和營銷垃圾機器人對話。
以及,從內容的角度來說:
既然,生成式AI是通過從大量的數據庫中學習,然后綜合給出答案,那么,它具備總結、綜合、列舉的能力,但不一定有“判斷數據真偽”的能力。
如果是這樣,那么"如何識別內容真偽,防止AI在內容里下”
也會是新的課題和機會。
原文作者:Twitter@EvieEvieXia原文編輯:Twitter@binary_dao 研究導讀: 中本聰在?2009?年創造比特幣的時候,就有了關于支付通道的想法.
1900/1/1 0:00:00作者:Aave 編譯:DeFi之道,Kyle一文速覽AaveV3四大重要特征。1月27日,DeFi借貸協議Aave宣布其V3版本已部署在以太坊主網上.
1900/1/1 0:00:00以太坊上海升級,也被眾多媒體稱為Web3下一場新的敘事,這也是目前大家討論最多的一熱點。2023年3月,以太坊將推出預期的上海升級,截止發稿前,本次升級主要包括EIP-3540、EIP-3651.
1900/1/1 0:00:00金色財經報道,美元穩定幣USDC發行方Circle發布2022年12月的儲備報告,該報告由GrantThornton會計集團審計,詳細說明了穩定幣發行方Circle的儲備金庫的構成,目前44.
1900/1/1 0:00:00頭條 ▌數據:2022年DeFi生態黑客攻擊資金總價值超60億美元2月5日消息,DefiLlama貢獻者、加密數據分析師Kofi提供的數據顯示,DeFi生態系統在2022年遭遇黑客攻擊激增.
1900/1/1 0:00:00寫在前面 2月13日,《2022年北京人工智能產業發展白皮書》正式發布,其中提到全面夯實人工智能產業發展底座,支持頭部企業打造對標ChatGPT的大模型,著力構建開源框架和通用大模型的應用生態.
1900/1/1 0:00:00