都说 Cloudflare 是赛博佛祖,是真正推动 serverless 的慈善企业,这句话在Workers AI发布后再次得到了印证,个人搭建 AI 应用、跑 AI 模型从未如此简单过,接下来让我们通过一个简单的实例,亲身搭建一个基于CF Workers AI的 LLM 来看看开发流程究竟有多么低,有多么简单
前期准备 / Preparations
一个 Cloudflare 账号
一个 Python 开发环境
需安装requests库
可选装jsonpath
教程 / Tutorial
获取 Cloudflare Workers AI API Token
与其他 API 类似,你需要先获取一个API Token,以便计费和验明身份
进入Cloudflare 控制台,登录你的 Cloudflare 账户,接着点击侧边栏中的AI选项卡,进入Workers AI 主界面,接着依次选择 使用 REST API -> 获取 API 令牌,进入一个新的页面,什么都不用管,直接滑到底,点击继续以显示摘要即可,创建令牌,随后复制生成的令牌并妥善保存
请注意,生成的令牌只会显示这一次,且持有令牌可以直接访问你的 Workers AI 资源,请保存在一个安全的地方
初阶代码
修改模型和Token
返回 “使用 Workers AI REST API” 页面,在下方代码区选择第三个 python,其应该类似下面这样
inputs = [ { "role": "system", "content": "You are a friendly assistan that helps write stories" }, { "role": "user", "content": "Write a short story about a llama that goes on a journey to find an orange cloud "} ]; output = run("@cf/meta/llama-2-7b-chat-int8", inputs) print(output)
将刚刚生成的 API Token 替换掉{API_TOKEN}即可 让我们试着运行一下程序,此时如果一切正常,程序应该已经可以正常运行并返回相应的结果了
修改Prompt
接下来我们需要修改 system prompt 和问题以做到提问的作用,让我们在程序中找到
1 2 3 4
inputs = [ { "role": "system", "content": "You are a friendly assistan that helps write stories" }, { "role": "user", "content": "Write a short story about a llama that goes on a journey to find an orange cloud "} ];
其中的"role": "system", "content":后面的内容对应的是 LLM 中的 system prompt,将其修改为 “你是一位优秀的中文助手” (可以自由发挥,按需求修改) 而"role": "user", "content":后面则是你向 AI 提的问题,这里可以修改为你想说的话,例如 “你好,请介绍一下你自己”