とことんDevOps | 日本仮想化技術のDevOps技術情報メディア

DevOpsに関連する技術情報を幅広く提供していきます。

日本仮想化技術がお届けする「とことんDevOps」では、DevOpsに関する技術情報や、日々のDevOps業務の中での検証結果、TipsなどDevOpsのお役立ち情報をお届けします。
主なテーマ: DevOps、CI/CD、コンテナ開発、IaCなど
読者登録と各種SNSのフォローもよろしくお願いいたします。

LLM

VSCodeの標準機能だけでLocal LLMを使う

以前vLLMとGooseでローカルLLMコーディングの話を書きました。 devops-blog.virtualtech.jp これは任意のエディター、Gooseを介してSaaSのAIやローカルのAIを使ったLLMコーディングを実現すると言う話でした。 私はそこまで知らなかったのですが、VSCode使い…

vLLMとGooseを連携してローカルLLMでコーディング

先日このような記事を書きました。 devops-blog.virtualtech.jp これはOllamaとGooseをすべてローカルの環境にインストールして、アプリ開発に使うのを想定しました。 最近のクライアントは性能が高く、すべてローカルに閉じても十分活躍してくれると思いま…