お問い合わせ

コラム

スタッフコラム

ローカルLLMの夢と現実

最近、MacBook Pro M5 Max を購入しました。実際に100BクラスのローカルLLM (いわゆる生成AI) を動かしてみたところ、最先端のクラウドAIに慣れた感覚からすると「思っていたよりは動く」といった印象です。それでも、ローカル環境でそれなりに快適に使えること自体に、技術の確かな進歩を感じます。

しかし、手放しで喜べるわけではありません。最大のネックはコストです。今回検証したようなハイスペックなマシン構成となると、その購入費は一般的なPCが複数台買えるほどの高額な投資となり、コストパフォーマンスが良いとは到底言えません。さらに昨今の事情を鑑みると、ローカルLLMを快適に動かせるハイスペックなPCは、今後一層の価格高騰も懸念されます。そのため、一般の人が個人でローカルLLM環境を構築することは、まだ現実的ではないでしょう。

普段から高度なレスポンスを期待する一般ユーザーにとって、この莫大な初期投資はハードルが高すぎます。結局のところ、多くの人にとってはChatGPTなどの手軽で高性能なクラウドAIへの依存は、今後も変わらないと考えられます。

一覧へもどる
COLUMN
COLUMN
details