比特幣價格 比特幣價格
Ctrl+D 比特幣價格
ads

GPT:ChatGPT的崛起:發展歷程、技術原理以及局限性_CHA

Author:

Time:1900/1/1 0:00:00

ChatGPT是個啥?

ChatGPT是個啥?

近期,OpenAI發布了ChatGPT,是一個可以對話的方式進行交互的模型,因為它的智能化,得到了很多用戶的歡迎。ChatGPT也是OpenAI之前發布的InstructGPT的親戚,ChatGPT模型的訓練是使用RLHF也許ChatGPT的到來,也是OpenAI的GPT-4正式推出之前的序章。什么是GPT?從GPT-1到GPT-3

GenerativePre-trainedTransformer(GPT),是一種基于互聯網可用數據訓練的文本生成深度學習模型。它用于問答、文本摘要生成、機器翻譯、分類、代碼生成和對話AI。2018年,GPT-1誕生,這一年也是NLP的預訓練模型元年。性能方面,GPT-1有著一定的泛化能力,能夠用于和監督任務無關的NLP任務中。其常用任務包括:自然語言推理:判斷兩個句子的關系問答與常識推理:輸入文章及若干答案,輸出答案的準確率語義相似度識別:判斷兩個句子語義是否相關分類:判斷輸入文本是指定的哪個類別雖然GPT-1在未經調試的任務上有一些效果,但其泛化能力遠低于經過微調的有監督任務,因此GPT-1只能算得上一個還算不錯的語言理解工具而非對話式AI。GPT-2也于2019年如期而至,不過,GPT-2并沒有對原有的網絡進行過多的結構創新與設計,只使用了更多的網絡參數與更大的數據集:最大模型共計48層,參數量達15億,學習目標則使用無監督預訓練模型做有監督任務。在性能方面,除了理解能力外,GPT-2在生成方面第一次表現出了強大的天賦:閱讀摘要、聊天、續寫、編故事,甚至生成假新聞、釣魚郵件或在網上進行角色扮演通通不在話下。在“變得更大”之后,GPT-2的確展現出了普適而強大的能力,并在多個特定的語言建模任務上實現了彼時的最佳性能。之后,GPT-3出現了,作為一個無監督模型,幾乎可以完成自然語言處理的絕大部分任務,例如面向問題的搜索、閱讀理解、語義推斷、機器翻譯、文章生成和自動問答等等。而且,該模型在諸多任務上表現卓越,例如在法語-英語和德語-英語機器翻譯任務上達到當前最佳水平,自動產生的文章幾乎讓人無法辨別出自人還是機器,更令人驚訝的是在兩位數的加減運算任務上達到幾乎100%的正確率,甚至還可以依據任務描述自動生成代碼。一個無監督模型功能多效果好,似乎讓人們看到了通用人工智能的希望,可能這就是GPT-3影響如此之大的主要原因GPT-3模型到底是什么?實際上,GPT-3就是一個簡單的統計語言模型。從機器學習的角度,語言模型是對詞語序列的概率分布的建模,即利用已經說過的片段作為條件預測下一個時刻不同詞語出現的概率分布。語言模型一方面可以衡量一個句子符合語言文法的程度,同時也可以用來預測生成新的句子。例如,對于一個片段“中午12點了,我們一起去餐廳”,語言模型可以預測“餐廳”后面可能出現的詞語。一般的語言模型會預測下一個詞語是“吃飯”,強大的語言模型能夠捕捉時間信息并且預測產生符合語境的詞語“吃午飯”。通常,一個語言模型是否強大主要取決于兩點:首先看該模型是否能夠利用所有的歷史上下文信息,上述例子中如果無法捕捉“中午12點”這個遠距離的語義信息,語言模型幾乎無法預測下一個詞語“吃午飯”。其次,還要看是否有足夠豐富的歷史上下文可供模型學習,也就是說訓練語料是否足夠豐富。由于語言模型屬于自監督學習,優化目標是最大化所見文本的語言模型概率,因此任何文本無需標注即可作為訓練數據。由于GPT-3更強的性能和明顯更多的參數,它包含了更多的主題文本,顯然優于前代的GPT-2。作為目前最大的密集型神經網絡,GPT-3能夠將網頁描述轉換為相應代碼、模仿人類敘事、創作定制詩歌、生成游戲劇本,甚至模仿已故的各位哲學家——預測生命的真諦。且GPT-3不需要微調,在處理語法難題方面,它只需要一些輸出類型的樣本。可以說GPT-3似乎已經滿足了我們對于語言專家的一切想象。注:上文主要參考以下文章:1.GPT4發布在即堪比人腦,多位圈內大佬坐不住了!-徐杰承、云昭-公眾號51CTO技術棧-2022-11-2418:082.一文解答你對GPT-3的好奇!GPT-3是什么?為何說它如此優秀?-張家俊中國科學院自動化研究所2020-11-1117:25發表于北京3.TheBatch:329|InstructGPT,一種更友善、更溫和的語言模型-公眾號DeeplearningAI-2022-02-0712:30GPT-3存在什么問題?

Chainge Finance與CompoSecure合作推出自托管硬件冷錢包:據官方消息,Chainge Finance與CompoSecure的Arculus合作推出了自托管硬件冷錢包,旨在為數字資產提供安全、易用的保護措施。Arculus硬件冷錢包采用了最佳的CC EAL6+安全元件,以硬件為基礎的多重身份驗證,保障私鑰的安全性。通過加密NFC連接與Chainge錢包通信,實現觸摸交易,不需要使用藍牙、USB或其他數據線。

Chainge錢包提供了自托管解決方案和加密管理工具,包括自托管跨鏈錢包、去中心化托管交易、去中心化期貨交易以及第一個去中心化期權交易等。[2023/3/16 13:08:29]

但是GTP-3并不完美,當前有人們最擔憂人工智能的主要問題之一,就是聊天機器人和文本生成工具等很可能會不分青紅皂白和質量好壞,地對網絡上的所有文本進行學習,進而生產出錯誤的、惡意冒犯的、甚至是攻擊性的語言輸出,這將會充分影響到它們的下一步應用。OpenAI也曾經提出,會在不久的將來發布更為強大的GPT-4:

將GPT-3與GPT-4、人腦進行比較據說,GPT-4會在明年發布,它能夠通過圖靈測試,并且能夠先進到和人類沒有區別,除此之外,企業引進GPT-4的成本也將大規模下降。

鏈游Eizper Chain完成兩輪共計200萬美元融資,種子輪由Alameda Research領投:3月15日消息,基于Solana的鏈游EizperChain宣布通過種子輪融資和NFT發行完成200萬美元融資,種子輪由AlamedaResearch領投,HuobiVentures、CryptocomCapital、SolarEcoFund、PetrockCapital、NyanHeroes、ROKCapital等參投,天使投資人包括JackTeoh、Ivanlam、ArnoldPoernomo。

據悉,EizperChain是一款融合冒險與競技場戰斗的多人動作角色扮演游戲,目前該游戲正在進行公開測試,主網版本預計在2022年第三季度發布。[2022/3/15 13:58:33]

ChatGP與InstructGPT

ChatGPT與InstructGPT

談到Chatgpt,就要聊聊它的“前身”InstructGPT。2022年初,OpenAI發布了InstructGPT;在這項研究中,相比GPT-3而言,OpenAI采用對齊研究,訓練出更真實、更無害,而且更好地遵循用戶意圖的語言模型InstructGPT,InstructGPT是一個經過微調的新版本GPT-3,可以將有害的、不真實的和有偏差的輸出最小化。InstructGPT的工作原理是什么?

動態 | Blockchain.com推出土耳其里拉的網關,用戶可直接在平臺交易加密貨幣:據Cointelegraph消息,總部位于英國的加密貨幣數據和錢包提供商Blockchain.com在其加密交易所推出了土耳其里拉的網關。來自土耳其的加密用戶不需要第三方支付方式就可以在Blockchain.com交易平臺上交易加密貨幣。該公司表示:“土耳其用戶現在可以存入、取出和使用比特幣(BTC)、以太坊(ETH)和USDT,并將他們的加密貨幣轉換成他們選擇的法定貨幣。”[2020/1/30]

開發人員通過結合監督學習+從人類反饋中獲得的強化學習。來提高GPT-3的輸出質量。在這種學習中,人類對模型的潛在輸出進行排序;強化學習算法則對產生類似于高級輸出材料的模型進行獎勵。訓練數據集以創建提示開始,其中一些提示是基于GPT-3用戶的輸入,比如“給我講一個關于青蛙的故事”或“用幾句話給一個6歲的孩子解釋一下登月”。開發人員將提示分為三個部分,并以不同的方式為每個部分創建響應:人類作家會對第一組提示做出響應。開發人員微調了一個經過訓練的GPT-3,將它變成InstructGPT以生成每個提示的現有響應。下一步是訓練一個模型,使其對更好的響應做出更高的獎勵。對于第二組提示,經過優化的模型會生成多個響應。人工評分者會對每個回復進行排名。在給出一個提示和兩個響應后,一個獎勵模型(另一個預先訓練的GPT-3)學會了為評分高的響應計算更高的獎勵,為評分低的回答計算更低的獎勵。開發人員使用第三組提示和強化學習方法近端策略優化(ProximalPolicyOptimization,PPO)進一步微調了語言模型。給出提示后,語言模型會生成響應,而獎勵模型會給予相應獎勵。PPO使用獎勵來更新語言模型。本段參考:TheBatch:329|InstructGPT,一種更友善、更溫和的語言模型-公眾號DeeplearningAI-2022-02-0712:30重要在何處?核心在于——人工智能需要是能夠負責任的人工智能OpenAI的語言模型可以助力教育領域、虛擬治療師、寫作輔助工具、角色扮演游戲等,在這些領域,社會偏見、錯誤信息和害信息存在都是比較麻煩的,能夠避免這些缺陷的系統才能更具備有用性。Chatgpt與InstructGPT的訓練過程有哪些不同?總體來說,Chatgpt和上文的InstructGPT一樣,是使用RLHF訓練的。不同之處在于數據是如何設置用于訓練的。

動態 | Riot Blockchain財報:Q2挖礦業務收入為240萬美元,毛利率盈虧平衡顯著改善:美通社消息,納斯達克上市公司Riot Blockchain(NASDAQ: RIOT)已公布了該公司2019年第二季度財務報告。報告顯示,2019年Q2,該公司通過挖礦獲得了316.19個BTC、143.81個BCH和870.01個LTC,挖礦收入約為240萬美元。相比之下,去年Q2的挖礦收入為280萬美元。 由于BTC、BCH和LTC的平均價格相較2019年Q1分別上漲了92%、122%和158%,Q2毛利率占挖礦收入的比例從5%大幅提高至35%。如果近期比特幣價格繼續上漲,預計將進一步改善毛利率盈虧平衡的結果。 該公司在2019年Q2的凈虧損約為130萬美元,合每股0.08美元。這標志著與2018年Q2相比的顯著改善,當時該公司公布了約2400萬美元的凈虧損,相當于每股虧損1.81美元。[2019/8/9]

ChatGPT存在哪些局限性?

如下:a)在訓練的強化學習(RL)階段,沒有真相和問題標準答案的具體來源,來答復你的問題。b)訓練模型更加謹慎,可能會拒絕回答。c)監督訓練可能會誤導/偏向模型傾向于知道理想的答案,而不是模型生成一組隨機的響應并且只有人類評論者選擇好的/排名靠前的響應注意:ChatGPT對措辭敏感。,有時模型最終對一個短語沒有反應,但對問題/短語稍作調整,它最終會正確回答。訓練者更傾向于喜歡更長的答案,因為這些答案可能看起來更全面,導致傾向于更為冗長的回答,以及模型中會過度使用某些短語,如果初始提示或問題含糊不清,則模型不會適當地要求澄清。ChatGPT’sself-identifiedlimitationsareasfollows.Plausible-soundingbutincorrectanswers:a)ThereisnorealsourceoftruthtofixthisissueduringtheReinforcementLearning(RL)phaseoftraining.b)Trainingmodeltobemorecautiouscanmistakenlydeclinetoanswer(falsepositiveoftroublesomeprompts).c)Supervisedtrainingmaymislead/biasthemodeltendstoknowtheidealanswerratherthanthemodelgeneratingarandomsetofresponsesandonlyhumanreviewersselectingagood/highly-rankedresponseChatGPTissensitivetophrasing.Sometimesthemodelendsupwithnoresponseforaphrase,butwithaslighttweaktothequestion/phrase,itendsupansweringitcorrectly.Trainerspreferlongeranswersthatmightlookmorecomprehensive,leadingtoabiastowardsverboseresponsesandoveruseofcertainphrases.Themodelisnotappropriatelyaskingforclarificationiftheinitialpromptorquestionisambiguous.AsafetylayertorefuseinappropriaterequestsviaModerationAPIhasbeenimplemented.However,wecanstillexpectfalsenegativeandpositiveresponses.參考文獻:1.https://medium.com/inkwater-atlas/chatgpt-the-new-frontier-of-artificial-intelligence-9aee812876772.https://pub.towardsai.net/openai-debuts-chatgpt-50dd611278a43.https://openai.com/blog/chatgpt/4.GPT4發布在即堪比人腦,多位圈內大佬坐不住了!-徐杰承、云昭-公眾號51CTO技術棧-2022-11-2418:085.一文解答你對GPT-3的好奇!GPT-3是什么?為何說它如此優秀?-張家俊中國科學院自動化研究所2020-11-1117:25發表于北京6.TheBatch:329|InstructGPT,一種更友善、更溫和的語言模型-公眾號DeeplearningAI-2022-02-0712:30原地址

聲音 | Wired:倫敦創業公司Chainspace讓Facebook的Libra成為可能:據Wired 6月20日消息,Facebook在創建Libra方面取得進展的關鍵時刻之一是在2019年2月,當時該公司宣布收購了總部位于倫敦、在直布羅陀注冊的區塊鏈合資企業Chainspace。Chainspace的成員中包括來自倫敦大學學院信息安全研究小組的幾位學者,其中包括英國領先的隱私工程研究人員George Danezis。Danezis沒有回復采訪請求。 6月18日,在收購Chainspace后不到六個月,Facebook公布了Libra加密貨幣的詳細計劃。來自Chainspace的George Danezis、Shehar Bano、Alberto Sonnino都被列為主要技術白皮書和其他一些關鍵文件的合著者。但是Libra的藍圖中明顯沒有提到Chainspace技術。一份闡述Libra共識方案HotStuff的報告中有提及Blockmania。主要文件提到了分片,但這是一個未來的實現,而不是當前的功能。[2019/6/20]

Tags:GPTCHAAININSChainGPTchain幣是什么幣polarchainINS3.Finance

Gate交易所
DON:空投埋伏日記:DegenScore、Spectrum Finance、Buildspace(12月7日)_LondonCoinGold

SpectrumFinance項目簡介:Ergo和Cardano生態DEX。最新進展:測試網上線.

1900/1/1 0:00:00
HAN:黑貓社區發生利益沖突,NFT藝術家應該干涉社區建設嗎?_LIVENFT幣

周末,黑貓社區與創作黑貓的藝術家SHHAN的撕*大戰在推特上引起了很多人的圍觀。總結下來,社區成員對于SHHAN的三項操作表示質疑:未將銷售所獲的NFT版稅給社區分成根據社區成員的敘述,黑貓社區.

1900/1/1 0:00:00
TAL:一周融資速遞 | 20家項目獲投;已披露融資總額約2.9億美元(11.7-11.13)_apix幣最新消息

經Odaily星球日報不完全統計,11月7日-11月13日當周公布的海內外區塊鏈融資事件共20起,較前一周有一定減少;已披露融資總額約為2.9億美元,較前一周有大幅下降.

1900/1/1 0:00:00
ETH:淺談以太坊最新技術路線圖中的有趣事實和隱含密碼_RollerSwap

1/30V神最近更新了ETH路線圖,里面有些和給大家解讀下: 一共分為六個階段,每個階段有若干里程碑.

1900/1/1 0:00:00
FTX:前特朗普新聞秘書爆料:推倒FTX的第一張骨牌_ARA

Odaily星球日報譯者|Moni 11月16日,特朗普正式宣布再次競選美國總統。就在特朗普宣布這一消息的前16個小時,曾擔任其新聞秘書和白宮通信主管、也是對沖基金SkyBridge創始人的An.

1900/1/1 0:00:00
ARK:一文讀懂最新版以太坊發展路線圖_THE

本文基于最新以太坊路線圖進行內容注解,旨在為讀者了解以太坊路線圖上各個部分提供入口點,每一部分都做了簡單的概要介紹.

1900/1/1 0:00:00
ads