原文作者:Tanya Malhotra
來源:Marktechpost
近年來,大型語言模型(Large Language Models,LLMs)在全世界受到了廣泛贊賞,并在自然語言處理領域備受歡迎。這使我們能夠使用比以往任何時候都更好、更清晰的語言理解來描述智能系統(Intelligent Systems)。
諸如 GPT-3、T5、PaLM 等 LLMs 的性能有了顯著提高,并且這些模型將繼續存在,因為它們可以完成從通過學習閱讀來模仿人類,到生成文本和總結長段落內容的所有工作。而根據一些深入的研究,如果 LLM 的規模很大,那么它的表現就會很好。通過在大量數據上訓練這些模型,它們可以理解人類語言的語法、語義和語用學。
加密貨幣支付解決方案提供商Oobit宣布與Fireblocks集成:金色財經報道,加密貨幣支付解決方案提供商Oobit宣布與Fireblocks集成,Fireblocks 是一個易于使用的平臺,用于創建新的基于區塊鏈的產品并管理日常數字資產運營。[2023/6/23 21:55:21]
由 OpenAI 開發的流行的大型語言模型 ChatGPT 之所以發展得如此之快,正是因為采用了人類反饋強化學習(RLHF)等先進技術。通過 RLHF,機器學習算法結合并使用人工輸入提高了模型的性能。它針對預訓練的 LLM 進行了微調,用于開發聊天機器人、虛擬助手等任務。
彭博社:OpenAI旗下創業投資基金完成1.75億美元募資:5月25日消息,據一份SEC文件顯示,ChatGPT開發商OpenAI關閉一只投資基金OpenAI Startup fund I,價值超過1.75億美元。此前,該公司預計向該基金投入1億美元。據兩名直接了解談判情況的人士透露,OpenAI代表已告訴潛在投資者,他們計劃募集第二只基金。(彭博社)[2023/5/25 10:39:19]
此外,ChatGPT 等 LLMs 所基于的預訓練基礎模型也得到了明顯的改進。這主要是由于三個方面的變化:
D/Bond提出的提案EIP-3475通過,可用于在以太坊上發行債券:8月25日消息,去中心化債券生態平臺D/Bond提出的EIP-3475提案已獲得通過,并被接受為一種新的API標準ERC-3475。
該EIP允許創建具有抽象鏈上元數據存儲的代幣化憑證,使每個債券類別ID代表一個新的可配置代幣類型并對應于每個類別,使得發行具有多種贖回數據的債券成為可能。在ERC-3475標準下,可以創建傳統債券和金融衍生品,如期貨和期權。[2022/8/25 12:47:21]
1.實踐證明,模型的擴展性(Scaling)對提高其性能很有幫助。以 Pathways 語言模型(Pathways Language Model,PaLM)為例,該模型通過擴展小樣本學習(few-shot learning)大大影響了其性能,小樣本學習可以減少根據具體應用調整模型所需的特定任務訓練實例的數量。
“比特幣消亡”谷歌搜索創下歷史新高:金色財經報道,根據谷歌搜索趨勢,比特幣價格暴跌正在重新引發關于領先加密貨幣消亡的猜測。在6月18日結束的一周內,谷歌對“比特幣消亡”的搜索量激增,并可能達到有記錄以來的最高水平。谷歌趨勢隨著時間的推移跟蹤對搜索詞的興趣,根據用戶查詢的總數分配1到100的分數。數據是匿名的,按主題分類并根據位置匯總。
根據反映的初步數據,“比特幣消亡”在6月12日至18日期間的得分為100。上一次搜索查詢獲得100分是在2017年12月左右。(cointelegraph)[2022/6/21 4:42:18]
通過使用 Pathways 語言模型在 6144 TPU v4 芯片上擴展和訓練 5400 億個參數,PaLM 展示了重復擴展的好處,其表現超過了各種傳統模型,并顯示出很大的進步。因此,深度和寬度的擴展都是提高基礎模型性能的一個重要因素。
2.另一個變化是在預訓練時增加標記數量的過程。像 Chinchilla 這樣的模型(開源語言模型)已經證明,通過增加預訓練數據,大型語言模型的表現會更好。
Chinchilla 是一個計算最優模型。在相同的計算預算下,在 70B 參數和比 Gopher 模型多四倍的數據上進行訓練,Chinchilla 的表現一致優于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。這清楚地描述了對于每一個計算最優的訓練,標記的數量應該相應地縮放——即模型大小的兩倍,因此訓練標記的數量應該是兩倍。
3.第三個變化是使用干凈和多樣化的預訓練數據。Galactica 的性能證明了這一點,它是一種存儲、混合和推理科學知識的大型語言模型。經過幾篇科學論文文本的訓練,Galactica 的表現優于 GPT-3、Chinchilla 等模型。另一個大型語言模型 BioMedLM 是一種針對生物醫學文本的特定領域 LLM,在針對特定領域數據進行訓練時,它表現出了巨大的性能提升。它清楚地表明,在特定領域的數據上進行的預訓練勝過在通用數據上的訓練。
LLMs 的成功無疑歸功于多種因素的混合,包括 RLHF 的使用和預訓練基礎模型的發展。這三個變化極大地影響了 LLMs 的性能。此外,GLaM(通用語言模型)通過使用稀疏激活的混合專家架構(Mixture-of-Experts architecture),以更少的訓練成本擴展模型的容量,從而顯著提高了性能。因此,這些變化為更高級的語言模型開辟了道路,而這些模型將繼續讓我們的生活變得輕松。
DeFi之道
個人專欄
閱讀更多
金色財經 善歐巴
金色早8點
Odaily星球日報
歐科云鏈
Arcane Labs
深潮TechFlow
MarsBit
BTCStudy
澎湃新聞
隨著 web3 的發展,NFT 社區、游戲社區、DAO 組織也都越來越活絡,盡管他們可以使用 discord,但 discord 并不是為 web3 社區而設計的.
1900/1/1 0:00:00近期,OpenAI推出的生成式人工智能ChatGPT火爆全球,上線僅兩個月就已收獲1億用戶,AI的魅力第一次被如此廣泛的受眾群體感受到.
1900/1/1 0:00:00作者:hildobby 談到加密數據,事情并不總是像看起來那樣。在閃亮的大指標背后 - 通常還有更多的故事.
1900/1/1 0:00:00作者:@菠菜菠菜 錢包作為進入加密世界的入口以及通行證在整個加密行業中有著不可替代的地位,使用錢包也是每一個想進入加密世界的人不可避免的一環.
1900/1/1 0:00:00原文標題:《Arbitrum 的時機》 原文作者:藍狐筆記 有不少小伙伴們都說 Arbitrum 一直利用空投預期來吸引更多用戶是很聰明的做法。從戰術層面或許這樣解讀是可以的,看上去也合理.
1900/1/1 0:00:00作者:畢良寰 引言 近日,美國最大加密友好銀行Silvergate Bank客戶逃離疊加監管質疑,美國監管一面提醒流動性風險,一面忙于處罰.
1900/1/1 0:00:00