最近Obsidianを使いはじめました。
Obsidian CopilotはObsidianのプラグインで、GitHub Copilot Chatのようにチャット形式でノートの内容を参照しながら質問ができる便利なツールです。
自分はAIにほぼ課金をせずに使用しているので、使用できるモデルが限られています。そこでCloudflare Workers AIをObsidian Copilotのモデルとして使用する方法を紹介します。
Cloudflare AI Gatewayの設定
Cloudflare Workers AIはAI Gatewayから利用することができます。
baseUrlにhttps://gateway.ai.cloudflare.com/v1/{account_id}/{gateway_id}/compatを指定することで、OpenAI互換のAPIエンドポイントとして利用できます。
モデルとしてworkers-ai/@cf/meta/llama-3.3-70b-instruct-fp8-fastのように、workers-ai/@cf/で始まるモデルを指定することでCloudflare Workers AIのモデルを使用できます。
2026年2月8日現在、なぜかText Embeddingモデルは利用しようとしてもエラーが返ってきます。(4xxを返さないでください)
ダッシュボードからCompute & AI > AI Gatewayに移動し、ゲートウェイとAPIキーを作成してください。
Obsidian Copilotの設定
Obsidian Copilotの設定画面のModelタブで以下のように設定します。
+ Add Modelをクリックし、以下のように入力します。
- Model Name:
workers-ai/@cf/meta/llama-3.3-70b-instruct-fp8-fast(任意の名前) - Provider:
OpenAI Format - Base URL:
https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway_id}/compat - API Key: (CloudflareのAI Gateway Runが付与されたAPIキー)
- CORS: ON
これでTestをクリックして成功すれば設定完了です。
同様の手順でText Embeddingモデルも追加できるはずですが、Cloudflare Workers AIのText Embeddingモデルは2026年2月8日現在うまく動作しないようです。