Cloudflare 现在有一个名为 Workers AI 的新测试版工具。您现在可以运行具有 Cloudflare Workers 性能和可靠性的预测和生成式 AI 模型。他们增加了对一些流行的人工智能模型的支持,例如 Llama 和 Whisper 等。您可以使用 Workers AI 在云中部署这些模型,然后通过 Rest API 使用它们。在这篇文章中,我将向您展示如何使用 Cloudflare 免费将 Whisper 部署为 API。Whisper 是 Open AI 的一个非常强大的语音转文本模型。它从您那里获取一个音频文件,然后返回转录的文本。我们已经介绍了它的桌面应用程序、Web 组装应用程序,甚至 Web 应用程序。除了语音到文本之外,Whisper 还有很多用途。它甚至可以用来生成视频的字幕,也可以将它们翻译成各种语言。现在使用 Cloudflare,您可以在云中免费部署 Whisper 模型的实例。在下一节中,您将看到解释如何作的分步指南。如何使用 Cloudflare 免费将 Whisper 部署为 API?要在 Cloudflare 上部署您自己的 Whisper 实例,您只需登录 Dashboard,然后转到 Worker AI 部分。从这里找到语音转文本模型并部署它。部署模型后,您将获得其 URL。将其复制下来并保存在安全的地方。现在转到 Cloudflare API 部分并创建一个令牌。选择 Worker AI 模板,然后继续使用默认值。在 Cloudflare 的站点仪表板中,您还需要复制您的帐户 ID。现在,如果一切顺利,那么您就可以对已部署的 Whisper 模型进行 API 调用了。我建议您使用 cURL,或者您可以使用 Postman 替代品。此外,最近我们写了一个 Httpie 客户端,也可以在这里使用。curl.exe https://api.cloudflare.com/client/v4/accounts/Account_ID/ai/run/@cf/openai/whisper -X POST -H “授权:承载API_Token” --data-binary @test.wav使用 MP3 文件或 WAV 文件进行 API 调用。并查看它返回的响应。JSON 响应中有一个“text”变量,其中包含从 Whisper 中提取/转录的最终文本。就这么简单。通过这种方式,您现在可以在 Cloudflare 上部署自己的 Whisper 实例。Workers AI 很棒,他们还发布了免费套餐,这真是个好消息。我非常喜欢它,而且还有其他可用的人工智能模型可供您使用,例如 Meta 的 Llama。您可以选择这些模型中的任何一个,只需单击几下即可将它们部署到 Cloudflare 上。将它们用作 API 并执行任何您想做的作。关闭的思考:如果您正在寻找将 Whisper 托管为 API 的选项,那么 Cloudflare 使用 Workers AI 使这一切变得容易。只需几秒钟,您就可以在快速而强大的 Cloudflare 网络上部署 Whisper 并转录音频文件。语音到文本转换适用于多种语言,您只需将其部署到您的帐户中即可。请记住,它目前处于测试阶段,因此在以后的更新中可能会发生变化。










