はじめに
モンスターハンターの新作をプレイするために Windows PC を購入したものの、結局遊ぶことはなく…。 放置するのももったいないので、 AI をゴリゴリ使った個人開発を進めるための開発用 PC としてセットアップしていきます。
使用する Windows PC のスペックは以下の通り。
Windows の仕様
- エディション: Windows 11 Pro
デバイスの仕様
- プロセッサ: AMD Ryzen 7 7700
- 実装 RAM: 64.0 GB
- グラボ: NVIDIA GeForce RTX 4070 SUPER
1. WSL2のインストール
まずは WSL2 (Windows Subsystem for Linux 2) の環境構築から進めます。
WSL2 を使用しない環境構築記事などもいくつかありますが、今回は Linux 前提のツールを多く使いそうなので WSL2 を使用して環境構築を進めていくことにしました。
Windows のスタートボタンを右クリックし、「ターミナル (管理者)」を選択。 起動したターミナルで以下のコマンドを実行しインストールを開始します。
wsl --installこれだけで仮想化機能の有効化から Ubuntu のインストールまでを自動的に行ってくれるらしいのですが、以下のエラーを吐いて止まってしまったので解決策を探します。
必要な機能がインストールされていないため、操作を開始できませんでした。
エラー コード: Wsl/InstallDistro/Service/RegisterDistro/CreateVm/HCS/HCS_E_SERVICE_NOT_AVAILABLEどうやら Windows の機能を手動で有効にする必要がありそうなので、Windowsキー + R を押して「ファイル名を指定して実行」ダイアログを開きoptionalfeatures で検索します。
「Windowsの機能」ダイアログが開くので、一覧から「Linux 用 Windows サブシステム」のチェックボックスにチェックを入れ、PC を再起動します。
再度ターミナルを開きwsl --installを実行すると、今度はうまくいったようで「ようこそ」されました。

ここから WSL2 の設定ができるようですが、細かい設定はいつか困ったときにやれば良い気がしたので「ようこそ」は閉じて WSL2 のインストール作業を終えます。
2. WSL2 から NVIDIA GPU を利用できるように
昔 WSL2 内で起動した Docker から画像生成 AI を使おうとした際にも設定したのですが、WSL2 から NVIDIA GPU を使えるようにしないと画像生成や言語処理が使い物にならないようなので設定を行います。
設定作業を始める前に Windows 側の NVIDIA ドライバを最新化しておくように。
設定手順について調べたところ CUDA Toolkit というものがあり、CUDA は NVIDIA GPU を汎用計算に利用するための技術で、CUDA Toolkit はその開発環境(コンパイラやライブラリ群)をまとめたものです。
インストール手順の通り、WSL-Ubuntu 向けのインストールコマンドを実行していきます。
※ここでは CUDA 13.0 用のパッケージを使用しています。Ubuntu のバージョンや CUDA の更新によりコマンドが変わる可能性があるので、必ず公式ドキュメントを確認してください。
CUDA on WSL User Guide — CUDA on WSL 13.0 documentation
wget <https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin>
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget <https://developer.download.nvidia.com/compute/cuda/13.0.1/local_installers/cuda-repo-wsl-ubuntu-13-0-local_13.0.1-1_amd64.deb>
sudo dpkg -i cuda-repo-wsl-ubuntu-13-0-local_13.0.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-13-0-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda-toolkit-13-0
インストールコマンドの実行が完了したら、そのままターミナル上でnvidia-smiを実行します。
nvidia-smi はドライバ付属の管理ツールで、CUDA Toolkit がなくても実行できますが、出力に「CUDA Version」が表示されるため、環境が CUDA に対応しているかを確認する目安としてよく使われます。
以下のように NVIDIA GPU に関するサマリー情報を WSL 上から取得できていれば完了です。

3. さいごに
ここまでの手順で、ひとまず AI をゴリゴリするための土台を整えました。
AI周りの技術は今でも日々進化しているため、情報を追いかけ遊んでいるうちにアップデートが入り、その圧倒的な進化速度に、SNS では毎回新しい情報に驚くだけの「プロ驚き屋さん」も多く見かけます。
その一方で、Local LLM 環境はある程度枯れてきており、モデルを切り替えるだけで用途に合わせたカスタマイズができるなど、振り回されにくい安定感があります。
加えて、クラウドの課金を気にせず好きなだけ試せるのも大きな魅力です。 コストを抑えつつ、自分の PC 上から気軽に AI で遊べる自由さはやはり楽しいですね。
投稿者プロフィール
最新の投稿
【React】2025年11月1日React 学習ログ – 環境構築からHello Worldまで
【Node.js】2025年10月16日Node.jsバージョン管理ツールについて調べてみる
【環境構築】2025年10月14日WSL2 から GitHub CLI を使って認証を行うまで
【環境構築】2025年10月14日Continue と Ollama を接続するメモ
























