banner
andrewji8

Being towards death

Heed not to the tree-rustling and leaf-lashing rain, Why not stroll along, whistle and sing under its rein. Lighter and better suited than horses are straw sandals and a bamboo staff, Who's afraid? A palm-leaf plaited cape provides enough to misty weather in life sustain. A thorny spring breeze sobers up the spirit, I feel a slight chill, The setting sun over the mountain offers greetings still. Looking back over the bleak passage survived, The return in time Shall not be affected by windswept rain or shine.
telegram
twitter
github

為 Hugging Face 用戶帶來無伺服器 GPU 推論服務

我們將把 Hugging Face 上一些最受歡迎的開放模型整合到 Cloudflare Workers AI 中,這一切都得益於我們的生產環境部署的解決方案,例如文本生成推理 (TGI)。

文本生成推理 (TGI)
https://github.com/huggingface/text-generation-inference/
通過部署到 Cloudflare Workers AI 服務,開發者可以在無需管理 GPU 基礎架構和伺服器的情況下,以極低的運營成本構建強大的生成式 AI (Generative AI) 應用,你只需為實際計算消耗付費,無需為閒置資源支付費用。

開發者的生成式 AI 工具
這項新服務基於我們去年與 Cloudfalre 共同宣布的戰略合作夥伴關係 —— 簡化開放生成式 AI 模型的訪問與部署過程。開發者和機構們共同面臨著一個主要的問題 ——GPU 資源稀缺及部署伺服器的固定成本。

戰略合作夥伴關係
https://blog.cloudflare.com/zh-cn/partnering-with-hugging-face-deploying-ai-easier-affordable-zh-cn/
Cloudflare Workers AI 上的部署提供了一個簡便、低成本的解決方案,通過按請求計費模式,為這些挑戰提出了一個無伺服器訪問、運行的 Hugging Face 模型的解決方案。

按請求計費模式
https://developers.cloudflare.com/workers-ai/platform/pricing
舉個具體例子,假設你開發了一個 RAG 應用,每天大約處理 1000 個請求,每個請求包含 1000 個 Token 輸入和 100 個 Token 輸出,使用的是 Meta Llama 2 7B 模型。這樣的 LLM 推理生產成本約為每天 1 美元。

Cloudflare 價格頁面
我們很高興能夠這麼快地實現這一整合。將 Cloudflare 全球網路中的無伺服器 GPU 能力,與 Hugging Face 上最流行的開源模型結合起來,將為我們全球社區帶來大量激動人心的創新。

John Graham-Cumming, Cloudflare 首席技術官

使用方法
在 Cloudflare Workers AI 上使用 Hugging Face 模型非常簡單。下面是一個如何在 Nous Research 最新模型 Mistral 7B 上使用 Hermes 2 Pro 的逐步指南。

你可以在 Cloudflare Collection 中找到所有可用的模型。

Cloudflare Collection
https://hf.co/collections/Cloudflare/hf-curated-models-available-on-workers-ai-66036e7ad5064318b3e45db6
注意:你需要擁有 Cloudflare 帳戶和 API 令牌。

Cloudflare 帳戶
https://developers.cloudflare.com/fundamentals/setup/find-account-and-zone-ids/
API 令牌
https://dash.cloudflare.com/profile/api-tokens
你可以在所有支持的模型頁面上找到 "部署到 Cloudflare" 的選項,包括如 Llama、Gemma 或 Mistral 等模型。

image

打開 "部署" 選單,選擇 "Cloudflare Workers AI",這將打開一個包含如何使用此模型和發送請求指南的界面。

注意:如果你希望使用的模型沒有 "Cloudflare Workers AI" 選項,意味著它目前不受支持。我們正與 Cloudflare 合作擴展模型的可用性。你可以聯繫我們,提交你的請求。

image
當前有兩種方式可以使用此整合:通過 Workers AI REST API 或直接在 Workers 中使用 Cloudflare AI SDK。選擇你偏好的方式並將代碼複製到你的環境中。當使用 REST API 時,需要確保已定義 ACCOUNTID 和 APITOKEN 變量。

Workers AI REST API
https://developers.cloudflare.com/workers-ai/get-started/rest-api/
Cloudflare AI SDK
https://developers.cloudflare.com/workers-ai/get-started/workers-wrangler/#1-create-a-worker-project
ACCOUNTID
https://developers.cloudflare.com/fundamentals/setup/find-account-and-zone-ids/
APITOKEN
https://dash.cloudflare.com/profile/api-tokens
就這樣!現在你可以開始向托管在 Cloudflare Workers AI 上的 Hugging Face 模型發送請求。請確保使用模型所期望的正確提示與模板。

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。