「ローカルLLMで十分」とか言ってる人、このマシン構成見てから言って

速報:ローカルLLMを本気でデイリードライブ:猛者がQwen 35b+27bを同時起動するOSSランチャー「Warpdrv」を公開(記事内画像)

いやいや、まずこのハードウェア構成から見てほしいんやけど。投稿者が使ってるのは「FEVM FAEX1(128GB統合メモリ)」というStrix Haloベースのミニマシンに、OCuLink接続で「RTX Pro 5000 Blackwell(48GB VRAM)」を外付けするという、もはや個人の趣味の域を完全に超えた構成。SSDはm.2を2枚RAID-0で束ねて2TB×2。OSはUbuntu 25.10。ホンマに「自宅サーバー」って言葉が霞むレベルの話やで。

この構成の何がすごいかというと、Strix HaloのiGPUとNVIDIAのディスクリートGPUを同時に別々のllama.cppバックエンドとして稼働させるという荒業を実現しているところ。片方のGPUでQwen3.6 27b(UD-Q6-KXL量子化)をCUDAで動かしながら、もう片方のStrix Halo統合メモリ上でQwen3.6 35b A3B(同じくUD-Q6-KXL)をROCmで動かす。2つのモデルを並列で走らせて、用途に応じてルーティングするわけや。まるでデュアルCPU時代のワークステーションを令和にやり直してるみたいな話やん。

WarpDrvが何をしてくれるのか、地味にすごい機能たち

Sourceが報じているように、WarpDrvは基本的には「llama-serverインスタンスを便利に立ち上げるためのラッパーアプリ」という位置づけ。でもそこに留まらんのがこの人の本気度を示してる。

まずMCP.json対応とツールコーリング。これ、ローカルLLMのフロントエンドとしては地味に重要な機能で、外部ツールと連携したエージェント的な使い方ができるようになる。次にモデルルーター。opencode(旧Aider系のコーディングAIツール)やclaude-codeのローカル代替として使えるよう、どのリクエストをどのモデルに投げるかを自動で振り分けてくれる仕組みや。コーディングの軽いタスクは27b、重いやつは35bへ、みたいな使い方ができると推測される。

そしてKVキャッシュチェックポイント(実験的)。これは長い会話コンテキストを保持したまま中断・再開できる機能で、まだ実験段階とのことやけど、デイリードライブで長期的なコーディングセッションを続けるには地味にありがたい機能になる可能性がある。投稿者自身「アルファ版なのでマイナーなバグはあるかも」と正直に書いてるのも好感持てるわ。

Strix HaloでROCmをベアメタル動作させるまでの茨の道

ここが個人的に一番「ええ話やん」と思ったセクション。Strix Halo(AMD Ryzen AI Maxシリーズ)のiGPUはgfx1151という比較的新しいアーキテクチャで、ROCmがネイティブに動くようにするにはかなりの手間がかかるらしい。

投稿者はDockerベースのツールボックスという楽な選択肢があることを知りながら、あえて「コンテナなしのベアメタルで動かしたい」という職人気質でゴリゴリ設定している。具体的にはカーネル6.18をMainline Kernels desktopアプリで導入、BIOSでiGPU専用VRAMを4GBに設定してResizable BARを有効化、残り124GBをGTT経由の統合メモリとして確保、さらにGRUBパラメータに`iommu=pt`や`amdgpu.gttsize=126976`などを追加するという手順が必要とのこと。

`amdgpu.gttsize`は最近のカーネルでは非推奨(deprecated)になってるけど、まだ効いてるから両方書いとく、という細かい注記まである。これ、ドキュメント化してくれてなかったら後から同じ構成を試す人が詰んでたやつやで。まさに「俺が苦労したから後続は楽させたる」精神の結晶やん。

結論:これは趣味の話やけど、業界全体への皮肉でもある

WarpDrvの話を読んでて思ったのは、「個人がここまでやれるようになった」という事実の重さや。クラウドAPIに月数万円払わなくても、ローカルで35bと27bを同時に走らせてコーディングアシスタントとして使える時代がもう来てる。

もちろんこの構成を組むための初期投資は相当なもので、RTX Pro 5000 Blackwell単体でもかなりの金額になるはずやから、「誰でもできる」話ではない。でも重要なのは、そのノウハウをOSSとして公開して、手順まで丁寧にドキュメント化しているという姿勢やと思う。大手AI企業がAPIの値上げやサービス変更のたびにユーザーを振り回す中で、「自分の環境を自分でコントロールする」という方向性は、地味やけど確実に支持を集めてる。

WarpDrvはまだアルファ版。バグもあるし、機能も発展途上。でも「作った人が自分で毎日使ってる」という事実が一番の信頼性の担保やで。ローカルLLM界隈、まだまだ面白いことになりそうやん。

関連リンク