あっという間に身体に馴染んでしまった。
けして使いこなしているという意味ではなく、今までWebで検索するときはキーワードを並べていたんだけど、どちらかというと自分の探していることを"そのまま"書いている。
ブラウザや検索エンジンのAIが、あちこちから集めてきた情報をまとめて、要約してくれるので、検索結果を一つ一つ紐解かなくてもわかりやすかったりする。 そういった意味では、とても頼れるエージェントだと思う。
さてさて、ChatGPTやGeminiのチャット形式で利用できるサービスを使ったりしていたんだけど、Claude Codeをターミナルから呼び出して使う使い方が、ちらほら聞こえてきて気になる今日この頃、手元のコンピュータで完結するローカルLLMなるものが存在することに”やっと”気がついた。
なるほど、自分のコンピュータにLLMを入れちゃうのね。広く使われているというLM StudioとOllamaをインストールしてみた。
LM Studioは、サイトからダウンロードしてインストールした。
Ollamaはcurlでインストールスクリプトをダウンロードして、実行するとインストールできると書いてあったのでターミナルで操作した。
LM Studioは、チャット形式、Ollamaはチャット形式に加えてCLIが得意なクライアントと紹介されてた。
まだ、それほど使っていないけど、ほんとにネットワーク繋がっていないのか?と思うほど色々答えてくれる。 どんな使い方が正しいのかは、使っていっておいおいか。
いろいろやってみようっと。
と、書いたので、この文章をローカルLLMで検証してみた。
=== 35.8秒後