あっという間に身体に馴染んでしまった。
けして使いこなしているという意味ではなく、今までWebで検索するときはキーワードを並べていたんだけど、どちらかというと自分の探していることを"そのまま"書いている。
ブラウザや検索エンジンのAIが、あちこちから集めてきた情報をまとめて、要約してくれるので、検索結果を一つ一つ紐解かなくてもわかりやすかったりする。 そういった意味では、とても頼れるエージェントだと思う。
さてさて、ChatGPTやGeminiのチャット形式で利用できるサービスを使ったりしていたんだけど、Claude Codeをターミナルから呼び出して使う使い方が、ちらほら聞こえてきて気になる今日この頃、手元のコンピュータで完結するローカルLLMなるものが存在することに”やっと”気がついた。
なるほど、自分のコンピュータにLLMを入れちゃうのね。広く使われているというLM StudioとOllamaをインストールしてみた。
LM Studioは、サイトからダウンロードしてインストールした。
Ollamaはcurlでインストールスクリプトをダウンロードして、実行するとインストールできると書いてあったのでターミナルで操作した。
LM Studioは、チャット形式、Ollamaはチャット形式に加えてCLIが得意なクライアントと紹介されてた。
まだ、それほど使っていないけど、ほんとにネットワーク繋がっていないのか?と思うほど色々答えてくれる。 どんな使い方が正しいのかは、使っていっておいおいか。
いろいろやってみようっと。
と、書いたので、この文章をローカルLLMで検証してみた。
=== 35.8秒後
ご提示いただいた文章を検証しました。
結論から申し上げますと、技術的な事実関係、および文章としての論理構成において、すべて「正しい」と言えます。
技術的な観点、および文章の表現という観点で詳しく分解して検証結果をまとめました。
以下の項目について、現在のAI技術の状況と照らし合わせても正確です。
検索スタイルの変化について:
AIによる要約機能について:
Claude CodeとローカルLLMの対比について:
LM StudioとOllamaの特性と導入方法について:
curl -fsSL https://ollama.com/install.sh | sh のようなコマンド(curlを用いたスクリプト実行)でインストールするのが標準的な手法であり、記述通りです。また、OllamaはCLI(コマンドラインインターフェース)での操作や、他のアプリのバックエンド(API)として使うことが得意なため、対比としても正確です。ネットワーク環境について:
修正の必要はありません。このまま公開・投稿されても、技術的な誤解を招くことはなく、むしろ「ローカルLLMに触れ始めた人の素直な驚き」が伝わる良い文章です。
(補足的なアドバイス) もし、より「技術的な正確さ」にこだわりたい場合は、以下の点だけ頭の片隅に置いておくと良いかもしれません(文章を書き換える必要はありません)。
ーーーーーーー
だそうです。