Obsidian CopilotのモデルとしてCloudflare Workers AIを使う


最近Obsidianを使いはじめました。

Obsidian CopilotはObsidianのプラグインで、GitHub Copilot Chatのようにチャット形式でノートの内容を参照しながら質問ができる便利なツールです。

自分はAIにほぼ課金をせずに使用しているので、使用できるモデルが限られています。そこでCloudflare Workers AIをObsidian Copilotのモデルとして使用する方法を紹介します。

Cloudflare AI Gatewayの設定

Cloudflare Workers AIはAI Gatewayから利用することができます。

baseUrlにhttps://gateway.ai.cloudflare.com/v1/{account_id}/{gateway_id}/compatを指定することで、OpenAI互換のAPIエンドポイントとして利用できます。

モデルとしてworkers-ai/@cf/meta/llama-3.3-70b-instruct-fp8-fastのように、workers-ai/@cf/で始まるモデルを指定することでCloudflare Workers AIのモデルを使用できます。

2026年2月8日現在、なぜかText Embeddingモデルは利用しようとしてもエラーが返ってきます。(4xxを返さないでください)

ダッシュボードからCompute & AI > AI Gatewayに移動し、ゲートウェイとAPIキーを作成してください。

Obsidian Copilotの設定

Obsidian Copilotの設定画面のModelタブで以下のように設定します。

+ Add Modelをクリックし、以下のように入力します。

  • Model Name: workers-ai/@cf/meta/llama-3.3-70b-instruct-fp8-fast (任意の名前)
  • Provider: OpenAI Format
  • Base URL: https://gateway.ai.cloudflare.com/v1/{account_id}/{gateway_id}/compat
  • API Key: (CloudflareのAI Gateway Runが付与されたAPIキー)
  • CORS: ON

これでTestをクリックして成功すれば設定完了です。

同様の手順でText Embeddingモデルも追加できるはずですが、Cloudflare Workers AIのText Embeddingモデルは2026年2月8日現在うまく動作しないようです。