跳至內容

Hugging Face

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書
Hugging Face, Inc.
公司類型私人公司
成立2016年,​8年前​(2016紐約
代表人物
  • Clément Delangue(CEO)
  • Julien Chaumond(CTO)
  • Thomas Wolf(CSO)
總部New York City , U.S.
業務範圍 全世界
產業人工智能機器學習軟件開發
產品Transformers模型、數據集(datasets)、spaces
營業額15,000,000 美元 (2022年) 編輯維基數據
員工人數170 (2023年) 編輯維基數據
網站huggingface.co

Hugging Face是一家美國公司,專門開發用於構建機器學習應用的工具。該公司的代表產品是其為自然語言處理應用構建的transformers,以及允許用戶共用機器學習模型和數據集的平台。

歷史

Hugging Face成立於2016年,由法國企業家克萊門特·德朗格(法語:Clément Delangue)、朱利安·肖蒙(Julien Chaumond)和托馬斯·沃爾夫(Thomas Wolf)創立,最初是一家開發面向青少年的聊天機械人應用程式的公司[1] 。在開源聊天機械人背後的模型後,該公司轉變方向,專注於成為一個機器學習平台。

2021年3月,Hugging Face在B輪融資英語Series B中籌集了4000萬美元[2]

2021年4月28日,Hugging Face與其他幾個研究團隊合作,推出了BigScience研究工作坊(BigScience Research Workshop),發佈了一個開放的大型語言模型[3]。2022年,該工作坊以1760億參數的多語言大型語言模型BLOOM英語BLOOM (language model)的發佈而結束[4]

2021年12月21日,該公司宣佈收購Gradio,這是一個用於製作機器學習模型互動式瀏覽器演示的軟件庫[5]

2022年5月5日,該公司宣佈由Coatue英語Coatue ManagementSequoia領投的C輪融資英語Series C[6]。公司估值達到20億美元。

2022年5月13日,該公司推出了學生大使計劃,旨在到2023年時實現向500萬人教授機器學習[7]

2022年5月26日,該公司宣佈與Graphcore英語Graphcore合作,為Graphcore IPU最佳化其Transformers庫[8]

2022年8月3日,該公司宣佈推出Private Hub,這是其公共Hugging Face Hub的企業版本,支援SaaS本地部署英語On-premises software[9]

2023年2月,該公司宣佈與亞馬遜雲端運算服務(AWS)合作,使Hugging Face的產品可供AWS客戶使用,作為構建其自訂應用程式的基礎。該公司還表示,下一代BLOOM將在AWS建立的專有機器學習晶片Trainium上執行[10][11]

服務與技術

Transformers模型庫

Transformers模型庫(Transformers Library)是一個Python軟件套件,其中包含了用於文字、圖像和音頻任務的Transformer模型的開源實現。它與PyTorchTensorFlowJAX深度學習庫相容,並包括了BERTGPT-2等知名模型的實現[12]。該庫最初名為「pytorch-pretrained-bert」[13],後來更名為「pytorch-transformers」,最終改名為「transformers」。

Hugging Face Hub

Hugging Face Hub是一個集中式Web服務平台,用於寄存以下內容:[14]

  • 基於Git代碼倉庫,具有類似於GitHub的功能,包括專案的討論(discussions)和拉取請求(pull requests)。
  • 模型(models),同樣具有基於Git版本控制的;
  • 數據集(datasets),主要涵蓋文字、圖像和音頻;
  • Web應用程式(「spaces」和「widgets」),用於機器學習應用的小規模演示。

Gradio

Gradio 是一個開源Python包,可讓您快速為機器學習模型、API 或任何任意Python函數構建演示或Web應用程式。然後,您可以使用Gradio的內建共用功能在短短幾秒鐘內共用演示或Web應用程式的連結。 [15] 使用Gradio,可以構建互動式用戶介面,而無需編寫任何HTML、CSS或JavaScript代碼。Gradio與各種機器學習框架相容,如TensorFlow、PyTorch和scikit-learn。還可以使用Gradio以互動方式除錯模型、從用戶取得反饋,並通過自動生成的可共用連結輕鬆部署模型。[16][17]

其他庫

除了Transformers庫和Hugging Face Hub之外,Hugging Face生態系統還包括用於其他任務的庫,例如數據集處理(「Datasets」),模型評估(「Evaluate」),模擬(「Simulate」),以及機器學習演示(「Gradio」)[15]

參考資料

  1. ^ Hugging Face wants to become your artificial BFF. TechCrunch. 2017-03-09 [2022-08-20] (美國英語). [失效連結]
  2. ^ Hugging Face raises $40 million for its natural language processing library. 2021-03-11 [2023-08-04]. (原始內容存檔於2023-07-28). 
  3. ^ Inside BigScience, the quest to build a powerful open language model. 2022-01-10 [2023-08-04]. (原始內容存檔於2022-07-01). 
  4. ^ BLOOM. bigscience.huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14). 
  5. ^ Gradio is joining Hugging Face!. huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14). 
  6. ^ Cai, Kenrick. The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution. Forbes. [2022-08-20]. (原始內容存檔於2022-11-03) (英語). 
  7. ^ Student Ambassador Program's call for applications is open!. huggingface.co. [2022-08-20]. (原始內容存檔於2023-03-14). 
  8. ^ Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers. huggingface.co. [2022-08-19]. (原始內容存檔於2022-11-14). 
  9. ^ Introducing the Private Hub: A New Way to Build With Machine Learning. huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14). 
  10. ^ Bass, Dina. Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up. 彭博新聞社. 2023-02-21 [2023-08-04]. (原始內容存檔於2023-05-22). 
  11. ^ Nellis, Stephen. Amazon Web Services pairs with Hugging Face to target AI developers. Reuters. 2023-02-21 [2023-08-04]. (原始內容存檔於2023-05-30). 
  12. ^ 🤗 Transformers. huggingface.co. [2022-08-20]. (原始內容存檔於2023-09-27). 
  13. ^ First release. Github. 2018-11-17 [2023-03-28]. (原始內容存檔於2023-04-30). 
  14. ^ Hugging Face Hub documentation. huggingface.co. [2022-08-20]. (原始內容存檔於2023-09-20). 
  15. ^ 15.0 15.1 Hugging Face - Documentation. huggingface.co. [2023-02-18]. (原始內容存檔於2023-09-30). 
  16. ^ Gradio: The New Frontier in Interactive Python Data Apps. [2023-12-23]. (原始內容存檔於2023-12-22). 
  17. ^ Python library for easily interacting with trained machine learning models https://pypi.org/project/gradio/頁面存檔備份,存於互聯網檔案館

外部連結