はじめにWSL2上のUbuntuを使ってLLMを使ったり、画像生成したり、動画生成したりしています。Ubuntu環境がごちゃごちゃになるのが嫌なので、その都度新規のUbutnu環境を作っています。ストレージに余裕があるので、力技です。これができるのがWSL2のいいとこ…
はじめにまっさらのUbuntu 22.04 on WSL2に「Dify」を動かす環境を構築するまでの全手順です。大規模言語モデルは無料のLlama3 8BをOllamaで動かして使います。最初の確認「/etc/wsl.conf」に以下が記入されていなかったら書き込んでおく必要があります。 [b…
はじめに「Fugaku-LLM」は日本が誇るスーパーコンピュータ「富岳」で学習した大規模言語モデルです。パラメーター数が13b(130億)とそこまで大きくないのでローカルで実行してみました。まっさらのUbuntu 22.04 on WSL2に「Fugaku-LLM」を動かす環境を構築…
はじめに前回の続きです。 touch-sp.hatenablog.com 変更点・Multi-IP-Adapterに対応しました。 (ただし、まだIP-AdapterのMulti-imagesには対応できていません)・モーション動画の作成をChampの方法(Blender使用)で行いました。 github.com 目的1つの動…
はじめに最近Diffusers Community Pipeline内にある「pipeline_animatediff_controlnet.py」のバグが修正されました。 github.com それに伴い過去の記事を少し書き直してみました。 touch-sp.hatenablog.com 変更点・FreeUを追加した ・「os」→「pathlib」に…
まずは以下を実行します。 ldd /mnt/wsl/PHYSICALDRIVE3p1/pyside6_env/env/env0430/lib/python3.12/site-packages/PySide6/Qt/plugins/platforms/libqxcb.so | grep "not found"「/mnt/wsl/PHYSICALDRIVE3p1/pyside6_env/env/env0430」はvenvの仮想環境のア…
hoge@galleria:~$ cat /etc/os-release PRETTY_NAME="Ubuntu 24.04 LTS" NAME="Ubuntu" VERSION_ID="24.04" VERSION="24.04 LTS (Noble Numbat)" VERSION_CODENAME=noble ID=ubuntu ID_LIKE=debian HOME_URL="https://www.ubuntu.com/" SUPPORT_URL="https:/…
はじめにVision&Languageモデル(VLM)を使って写真の説明をしてもらいます。今回は軽量モデルの「moondream2」を使ってみました。 huggingface.co その他のVision&Languageモデル(VLM)touch-sp.hatenablog.com touch-sp.hatenablog.com touch-sp.hatena…
はじめにWSL2上のOllamaで「Phi-3」を実行して、Windows上のChatUIでそれを利用してみました。無料で実行可能です。 github.com github.com 必要なものWSL2にDocker Engineのインストールが必要です。 Windowsにnpmのインストールが必要です。使用した環境WS…
はじめにこちらのスクリプトをDiffusers用に書き換えました。 touch-sp.hatenablog.com スタイル画像こちらの画像を使わせてもらいました。 結果シードを変えて4枚の画像を作成しました。スタイルを維持しながらウサギを猫に変えています。 PC環境 Windows 1…
結果左側の写真から右側の写真を作成しました。 PC環境 Windows 11 CUDA 11.8 Python 3.11Python環境構築 pip install torch==2.2.2+cu118 --index-url https://download.pytorch.org/whl/cu118 pip install git+https://github.com/huggingface/diffusers p…
はじめに「Llama.cpp」と「ChatUI」を使用しています。それぞれの使い方はこちらを参照して下さい。 touch-sp.hatenablog.com touch-sp.hatenablog.com 使い方「Llama.cpp」の実行 ./llama.cpp/server -m llama.cpp/models/codegemma-7b-it-f16.gguf -c 2048…