ローカルでチャットAIを動作させる

text-generation-webui を使用してローカルでLLMを動かし、
AIとチャットを行ってみました。

text-generation-webui のgithubからソースコードをpullし、
Readmeに従ってpullしてきたフォルダの”start_windows.bat”を実行します。

そうするとターミナルが起動し、必要なファイルのダウンロードが始まり、
途中でGPUの種類やCUDAのバージョン選択等を聞かれるのでそれに答えると
しばらく待てばセットアップが終わります。

セットアップが完了するとターミナル上に “http://172.0.0.1:{ポート番号}” が表示されるので
このアドレスをブラウザで起動すればwebuiの起動完了です。

今回のモデルはストックマーク株式会社のStockmark 13Bを量子化したStockmark 13B – GPTQを利用しました。

モデルデータはWebUI上でダウンロードが可能です。
Modelタブに移動し、”Download model or LoRA” に配布元に記載されているテキストを張り付けてDownloadボタンを押下するとダウンロードが開始されます。
しばらくしてダウンロードが完了するとModel左上の”Model”でダウンロードしたモデル名が選択可能になるので選択すれば設定完了です。

Chatタブに移動してメッセージを送信すればAIが応答してくれます。

ローカルLLMの実行環境を構築するのも簡単ですね。

水曜担当:Tanaka



アプリ関連ニュース

お問い合わせはこちら

お問い合わせ・ご相談はお電話、またはお問い合わせフォームよりお受け付けいたしております。

tel. 06-6454-8833(平日 10:00~17:00)

お問い合わせフォーム