比特幣價格 比特幣價格
Ctrl+D 比特幣價格
ads
首頁 > Ethereum > Info

CHI:一文了解 ChatGPT 等 LLMs 得到明顯改進的 3 個變化_LMS

Author:

Time:1900/1/1 0:00:00

原文作者:Tanya Malhotra

來源:Marktechpost

近年來,大型語言模型(Large Language Models,LLMs)在全世界受到了廣泛贊賞,并在自然語言處理領域備受歡迎。這使我們能夠使用比以往任何時候都更好、更清晰的語言理解來描述智能系統(Intelligent Systems)。

諸如 GPT-3、T5、PaLM 等 LLMs 的性能有了顯著提高,并且這些模型將繼續存在,因為它們可以完成從通過學習閱讀來模仿人類,到生成文本和總結長段落內容的所有工作。而根據一些深入的研究,如果 LLM 的規模很大,那么它的表現就會很好。通過在大量數據上訓練這些模型,它們可以理解人類語言的語法、語義和語用學。 

3190枚BTC從Kraken轉移到未知錢包:金色財經報道,據Whale Alert監測,30分鐘前有3190枚BTC(約81,546,394美元)從Kraken轉移到未知錢包。[2023/6/16 21:42:11]

由 OpenAI 開發的流行的大型語言模型 ChatGPT 之所以發展得如此之快,正是因為采用了人類反饋強化學習(RLHF)等先進技術。通過 RLHF,機器學習算法結合并使用人工輸入提高了模型的性能。它針對預訓練的 LLM 進行了微調,用于開發聊天機器人、虛擬助手等任務。

此外,ChatGPT 等 LLMs 所基于的預訓練基礎模型也得到了明顯的改進。這主要是由于三個方面的變化:

Arbitrum網絡總交易數已突破1.5億筆:金色財經報道,據歐科云鏈 OKLink 多鏈瀏覽器數據顯示,Arbitrum 網絡總交易數已突破1.5億筆,近24小時鏈上交易量超64.7萬枚ETH。截至目前,Arbitrum鏈上交互總地址已突破690萬個,近24小時新增近50萬個新地址。[2023/3/24 13:24:35]

1.實踐證明,模型的擴展性(Scaling)對提高其性能很有幫助。以 Pathways 語言模型(Pathways Language Model,PaLM)為例,該模型通過擴展小樣本學習(few-shot learning)大大影響了其性能,小樣本學習可以減少根據具體應用調整模型所需的特定任務訓練實例的數量。

CNBC:硅谷銀行正在進行自我出售的談判:金色財經報道,硅谷銀行(SIVB.O)籌集資金的嘗試已經失敗,正在進行自我出售的談判。剛剛硅谷銀行(SIVB.O)盤前停牌,等待刊發消息。停牌前一度從跌 60% 拉升至漲 50%。此前美國白宮經濟顧問 Ramamurti 稱,財政部正在非常仔細地監控硅谷銀行。[2023/3/10 12:54:52]

通過使用 Pathways 語言模型在 6144 TPU v4 芯片上擴展和訓練 5400 億個參數,PaLM 展示了重復擴展的好處,其表現超過了各種傳統模型,并顯示出很大的進步。因此,深度和寬度的擴展都是提高基礎模型性能的一個重要因素。

加密會計軟件Bitwave完成1500萬美元A輪融資:12月6日消息,加密會計和合規平臺 Bitwave 宣布完成 1500 萬美元 A 輪融資,Hack VC 和 Blockchain Capital 領投,SignalFire 等參投。

此前報道,2021 年 8 月,Bitwave 宣布完成 725 萬美元種子輪融資,Blockchain Capital 領投,Nascent、Nima Capital 和 Arca 參投。[2022/12/6 21:26:24]

2.另一個變化是在預訓練時增加標記數量的過程。像 Chinchilla 這樣的模型(開源語言模型)已經證明,通過增加預訓練數據,大型語言模型的表現會更好。

Chinchilla 是一個計算最優模型。在相同的計算預算下,在 70B 參數和比 Gopher 模型多四倍的數據上進行訓練,Chinchilla 的表現一致優于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。這清楚地描述了對于每一個計算最優的訓練,標記的數量應該相應地縮放——即模型大小的兩倍,因此訓練標記的數量應該是兩倍。 

3.第三個變化是使用干凈和多樣化的預訓練數據。Galactica 的性能證明了這一點,它是一種存儲、混合和推理科學知識的大型語言模型。經過幾篇科學論文文本的訓練,Galactica 的表現優于 GPT-3、Chinchilla 等模型。另一個大型語言模型 BioMedLM 是一種針對生物醫學文本的特定領域 LLM,在針對特定領域數據進行訓練時,它表現出了巨大的性能提升。它清楚地表明,在特定領域的數據上進行的預訓練勝過在通用數據上的訓練。

LLMs 的成功無疑歸功于多種因素的混合,包括 RLHF 的使用和預訓練基礎模型的發展。這三個變化極大地影響了 LLMs 的性能。此外,GLaM(通用語言模型)通過使用稀疏激活的混合專家架構(Mixture-of-Experts architecture),以更少的訓練成本擴展模型的容量,從而顯著提高了性能。因此,這些變化為更高級的語言模型開辟了道路,而這些模型將繼續讓我們的生活變得輕松。  

DeFi之道

個人專欄

閱讀更多

金色財經 善歐巴

金色早8點

Odaily星球日報

歐科云鏈

Arcane Labs

深潮TechFlow

MarsBit

BTCStudy

澎湃新聞

Tags:CHIBITLMSGPTArise ChikunBybit身份認證LMS價格GGPT幣

Ethereum
OIN:Coinlive國際婦女節特別街訪:Web 3與女性就業_CoinEx交易所無法提現

這個國際婦女節,Coinlive推出國際婦女節特別訪談節目,為了更深入了解加密領域的女性工作環境及狀況,Coinlive走上街頭,對多位在加密領域的代表性的女性進行采訪.

1900/1/1 0:00:00
STR:金色觀察 | 比特幣開發者:為什么Nostr很重要?_Structure

文/ Jameson Lopp,Casa聯合創始人兼CTO,比特幣開發者;譯/金色財經xiaozou摘要:Nostr是一個抗審查言論和社交分享的新協議.

1900/1/1 0:00:00
元宇宙:普華永道研報持續唱多元宇宙 背后是想進軍Web3?_WEB3

2月,普華永道發表了一篇名為《2023元宇宙展望》的報告,共計17頁。或許是因為內容頗為“打雞血”,引得不少國內媒體摘錄、轉發、評論.

1900/1/1 0:00:00
NFT:從代幣到版稅再到聚合器 頭部NFT交易所的下輪戰火將燒至哪里_SEAMLESS幣

NFT交易市場的格局將如何演進?本文梳理了NFT相關概念,以及比較了Top 5的NFT交易平臺,以供參考.

1900/1/1 0:00:00
比特幣:長推:L2的局限性和另一種擴容方法_GAS

原文作者:Luyao 原文來源:twitter注:本文來自@levi0214 推特,MarsBit整理如下:Gnosis 的創始人 @koeppelmann 昨天在 EthDenver 做了個分.

1900/1/1 0:00:00
BIN:微軟因“Bing”得福?誰能成為搜索引擎的游戲規則改變者?_chatcoin幣未來價值

去年11月,由OpenAI公司發布的大型聊天機器人軟件ChatGPT“一夜躥紅”,上線短短兩三個月,用戶規模或已超過1億.

1900/1/1 0:00:00
ads