文:趙志東 蔡佳雯
2022年底,美國科技初創公司OpenAI發布的智能聊天工具ChatGPT一夜火爆。與過去一些AI聊天機器人對話時明顯的機械感或內容復制粘貼感相比,ChatGPT給出的答復往往邏輯清晰,切中要點,并能與用戶進行自然流暢的對話。出于對AI技術究竟發展到何程度的好奇,各行各業的人都開始用ChatGPT進行花式測評,從寫代碼到做高考數學題,從翻譯學術論文到寫命題小作文。而ChatGPT的完成度也確實令人感慨,過去僅能由人類完成的創造性工作,一定程度上可以由ChatGPT取代,完成相應內容生產。
ChatGPT的出現,也掀起了人工智能內容生產賽道(Artificial Intelligence Generated Content)的熱潮。微軟已正式將ChatGPT技術接入必應搜索和Edge瀏覽器。百度(中國)有限公司也表示,將在今年3月完成類似ChatGPT的項目“文心一言”(ERNIE Bot)的內部測試后向公眾開放。
對于ChatGPT展現的“超能力”,不少人對技術發展感到振奮的同時,也對人工智能內容生產及其背后的道德倫理、社會責任和法律風險存在一絲擔憂。本文將從算法、數據和內容三個層面,詳述ChatGPT背后的法律風險和合規建議。
Chaos Labs 與 Uniswap基金會合作推出Uniswap V3 TWAP預言機風險門戶網站:5月26日消息,區塊鏈風險分析公司 Chaos Labs 與 Uniswap 基金會合作推出 Uniswap V3 TWAP 預言機風險門戶網站,該網站強調了 V3 池中 TWAP 操縱的實時成本。該 TWAP 市場風險應用程序利用資金池數據(包括流動性深度和耗盡價格)對所有 V3 資金池和部署的實時操縱風險進行量化,用戶可以查看所有池中的操縱成本。該門戶將實時集中的流動性分配納入量化操縱成本,并量化了移動當前現貨價格的資本要求以及量化在 30 分鐘窗口內移動 TWAP 的資本要求,允許用戶模擬額外的流動性在特定時段內如何增加操縱的資本需求。[2023/5/26 9:44:19]
ChatGPT的技術原理是在算法和數據基礎上,利用自然語言處理生成相應回答。具體來說,ChatGPT使用了基于人類偏好的強化學習的機器訓練模型(Reinforcement Learning from Human Feedback),由技術人員預先給ChatGPT輸入海量語言數據,并根據人工標注的高質量回答對ChatGPT生成的回答建立打分和獎勵模型,引導訓練ChatGPT模型對輸出結果不斷進行校正和優化,并向高分方向完善輸出答案,最終使得ChatGPT能夠學習人類語言的特征和結構,實現用自然語言進行人機交流。
OpenAI宣布開放API,開發人員可將ChatGPT集成到自己的產品中:3月2日消息,OpenAI宣布允許第三方開發者通過API將ChatGPT集成到他們的應用程序和服務中。OpenAI總裁兼董事長Greg Brockman表示,ChatGPT API由“gpt-3.5-turbo”支持,是GPT-3.5的優化版本,定價為 0.002 美元/每1000 token(這里提到的“Token”是指系統將句子和單詞分解成的文本塊,以便預測接下來應該輸出什么文本)。根據OpenAI官網的解釋token可以理解為一個一個非結構化的單詞,而1000個token大概對應750個詞。這個價格也要比目前的GPT 3.5模型便宜90%。[2023/3/2 12:37:54]
當前,ChatGPT被認為能夠處理多種相對復雜的語言類工作,包括自動文本生成、自動問答、延續上下文的連續對話等,并被嘗試用于新聞、營銷、客服等行業領域。但是,人工智能內容生產并不能保證其內容的準確性,ChatGPT也在用戶協議中對此做出了免責聲明。比起ChatGPT輸出一些“正確的廢話”,其“一本正經地胡說八道”帶來的危害更是令各國監管機構都十分警覺。
零清算借貸算穩協議Chao&Orders宣布跨鏈BNBChain:8月24日消息,Avalanche 生態零清算借貸算穩協議 Chao&Orders 近期宣布跨鏈 BNBChain,此前該協議上月底于 Avalanche 上的募資計劃公售輪于三分鐘內售罄。[2022/8/24 12:45:25]
今年1月,OpenAI首席技術官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能會被“危險分子”使用于編造事實,這是當下大型語言模型共同面臨的挑戰。
一方面,在法律、醫學等專業領域,用戶需要一定的專業知識才能辨別ChatGPT生成內容的真假。如有用戶依賴不準確的答案做出判斷和決策,可能會危害用戶的人身和財產安全。
另一方面,不排除一些別有用心的不法分子,通過向ChatGPT輸入虛假或誤導性的信息來“訓練”其產生虛假信息,嚴重者可能導致影響輿論或生態、煽動暴力和犯罪等破壞公共利益等嚴重后果。
我國出臺的《互聯網信息服務深度合成管理規定》,也是旨在應對深度合成技術給法律、社會秩序、公共安全帶來的沖擊。根據《互聯網信息服務深度合成管理規定》給出的定義,深度合成技術是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術,其中包括篇章生成、文本風格轉換、問答對話等生成或者編輯文本內容的技術。ChatGPT這類人工智能內容生產產品,顯然應受該法的規制。
ETC Labs宣布與Chainalysis合作:金色財經報道,ETC Labs宣布與區塊鏈分析公司Chainalysis建立合作關系,以提供Chainalysis KYT(了解您的交易),可幫助加密貨幣企業遵守本地和全球法規。Chainalysis表示還將向ETC Labs的初創公司、項目和受贈人提供Chainalysis專家的合規性和法規幫助,以幫助公司和項目確定其需滿足的要求。[2020/9/10]
按照《互聯網信息服務深度合成管理規定》要求,深度合成服務提供者應當落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度。
首先,深度合成服務提供者應當以顯著方式提示深度合成服務技術支持者和使用者承擔信息安全義務。對于使用其服務生成的可能導致公眾混淆或者誤認的信息內容,應當在該信息內容的合理位置、區域進行顯著標識,向公眾提示該內容為深度合成,并在生成疑似違法信息時提示用戶存在虛假信息的安全風險。
其次,深度合成服務提供者應當加強深度合成內容管理,建立健全用于識別違法和不良信息的特征庫,采取技術或者人工方式對深度合成服務使用者的輸入數據和合成結果進行審核。如果發現用戶利用深度合成服務制作、復制、發布、傳播虛假信息的,應當及時采取辟謠措施,保存有關記錄,并向網信部門和有關主管部門報告。
Kava宣布與Chainlink建立長期合作:據官方消息,Cosmos跨鏈DeFi平臺Kava今日宣布,已與去中心化預言機(Oracle)網絡Chainlink建立了長期合作關系。Chainlink成為Kava的官方/默認去中心化預言機。Kava將建立一個跨鏈橋機制幫助Chainlink提供適用于Cosmos的預言機解決方案。[2020/3/26]
與此同時,對發布違法和不良信息的相關深度合成服務使用者,要依法依約采取警示、限制功能、暫停服務、關閉賬號等處置措施。
除了《互聯網信息服務深度合成管理規定》,ChatGPT等人工智能內容生產產品也受《互聯網信息服務算法推薦管理規定》規制。《互聯網信息服務算法推薦管理規定》中所稱算法推薦技術,就包括利用生成合成類算法技術向用戶提供信息。該法規的要點,是防止出現算法歧視或算法偏見,生成負面有害信息或低俗劣質信息等不符合主流價值導向的內容。
根據《互聯網信息服務算法推薦管理規定》第七條規定,算法推薦服務提供者應當建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護、反電信網絡詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施。
具體來講,算法服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果,確保算法模型不違背倫理道德。在此基礎上,算法服務提供者同樣應以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。
此外,如果是具有輿論屬性或者社會動員能力的產品,算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息,履行備案手續。
以ChatGPT為例,盡管OpenAI在官網上聲明,ChatGPT已通過算法設置和訓練,能在一定程度上拒絕用戶不合理的請求,例如生成可能包含種族歧視或性別歧視、暴力、血腥、等違反法律以及公序良俗的內容。但事實上,這樣的違法信息傳播風險仍然存在,其引發的法律責任和社會輿論,可能會對公司形象及商譽產生負面影響。
三年前在韓國十分火爆的人工智能聊天機器人Lee Luda,由于一些用戶在對話交互時,故意輸入污穢和暴力言語,導致Lee Luda在接收這些不符合主流價值觀的內容后,開始輸出一些涉嫌性別歧視、種族歧視、對弱勢群體的歧視的內容,該產品因此廣為詬病而于上線不到一個月就中斷了服務。
ChatGPT的前期訓練、后期迭代和強化學習都需要海量的數據,最新開放版本GPT-3.5預訓練數據量已達到45TB,其中就包括北京智源人工智能研究院建構的中文語料庫WuDaoCorpora中約3TB的中文語料。
《互聯網信息服務算法推薦管理規定》第十四條明確規定,深度合成服務提供者和技術支持者應當加強訓練數據管理,采取必要措施保障訓練數據安全;訓練數據包含個人信息的,應當遵守個人信息保護的有關規定。
我國《個人信息保護法》明確了處理個人信息應當遵循的公開原則、誠信原則和最小限度原則,即個人信息處理者應當公開個人信息處理規則,明示處理的目的、方式和范圍,不得過度收集個人信息,不得通過誤導、欺詐、脅迫等方式處理個人信息。以ChatGPT為例, OpenAI公司為模型訓練而收集或處理個人信息的,還需要取得用戶個人的同意。
在OpenAI公司就ChatGPT使用常見問題的答復中,OpenAI明確承認,用戶與ChatGPT的對話數據,將會被用于ChatGPT的迭代模型訓練。并且,OpenAI特別提示,OpenAI暫時無法從輸入歷史中刪除特定某條內容;如果想要刪除數據,必須以注銷此OpenAI賬號的方式,而該賬號所有的相關數據會被一起刪除,故用戶不要在使用ChatGPT時輸入敏感信息或機密內容。
因此,在類似ChatGPT的人工智能內容生產產品開發和后期升級過程中,盡可能使用公開的非個人信息,或對收集的個人信息進行匿名化的處理。如果必須要使用個人信息,應當明確向用戶告知并取得其個人同意,避免違法使用個人信息造成的侵權或損害。
財聯社
媒體專欄
閱讀更多
金色財經 善歐巴
金色早8點
Arcane Labs
MarsBit
Odaily星球日報
歐科云鏈
深潮TechFlow
澎湃新聞
BTCStudy
引言 隨著Aptos22年10月的stealth上線和大量空投,新晉公鏈生態再度人潮洶涌,同基于Move但尚未上線的Sui公鏈,Discord直接擠爆,水龍頭頻頻維修,再次被推上風口.
1900/1/1 0:00:00原文標題:《Pureplay On-Chain Games》原文作者:ID Theory 首席投資官 James Brodie原文編譯:比得潘 @BlockBeats隨著區塊鏈技術日趨成熟.
1900/1/1 0:00:00原文來源:Sullivan,Zonff Partners 投資總監,Twitter: @devicex_w在和一些 Web3 游戲開發者溝通后.
1900/1/1 0:00:00作者:Terry 3月1日,加密友好銀行集團 Silvergate Capital布將推遲提交其年度 10-K 報告,(10-K 報告是美國證券交易委員會要求的一份文件.
1900/1/1 0:00:00原文:《What’s New with ZKs?》by William M. Peaster 編譯:Kyle 如果您深入了解加密世界.
1900/1/1 0:00:00Web3 游戲跨越鴻溝,本質是要實現外部性的收入,而且這個收入能夠支撐起整個游戲的內部經濟運轉。它不再是通過后來進入用戶的投入來支撐更早進入用戶的收益.
1900/1/1 0:00:00