2026年2月27日金曜日

ローカルAIやってみた


ollamaとかLLMstudioとかの記事

Perplexityとかに聴いたら簡単に環境構築できそうだったので

4.5Gのモデルを落としてフロントはapiをllama-cpp-pythonにして自力で使おうと思ったが

pythonモジュールがdebianのリポジトリになかったりしてインストできず
仮想環境を作って結構苦労してなんとか実行したが

即フリーズ!!!

パワー不足

っていうかゲーム用のハイスペックPCじゃなきゃ無理っぽい

Perplexityは例によって「あなたの判断は100%正しい、無理です」みたいな


で、断念



 書きかけ〜(・∀・)

0 件のコメント:

コメントを投稿