Mac

MacにNVIDIA eGPUを繋いでLLMを動かせるように–TinyGPUがApple公式承認を取得

Tiny Corpが開発したeGPUドライバーTinyGPUが、2026年3月31日にAppleによって正式承認。

これにより、Apple Silicon MacにNVIDIA・AMDのGPUをThunderbolt/USB4経由で接続して、ローカルLLM推論に使えるようになりました。SIPの無効化は不要です。

Tiny Corpとは

TinyGPUを開発したTiny Corpは、オープンソースのAIフレームワーク「tinygrad」を軸に、AI専用PC「tinybox」も販売するAIインフラ企業。

tinybox redは4基のAMD RX 9070XTを搭載し、ローカルAI処理に特化した構成が特徴で、「ペタフロップを商品化する」をミッションに掲げています。

tinygrad: A simple and powerful neural network framework

何ができるようになったのか

一言でいえば、MacをホストにしてNVIDIA・AMDのeGPUでLLMを動かせるようになりました。

今まで「MacのユニファイドメモリにモデルをロードできるがGPU演算が遅い」という制約があったところに、外部GPUの計算力を足せるようになったということになります。

Tiny Corp自身のテストでは、Mac mini(M4)+ Radeon RX 7900 XTXの構成でQwen 3.5 27Bを18.5 tok/sで実行。さらに最適化余地が3倍あるとしています。

ただし、これはAIコンピューティング専用の話で合って、ゲーム、映像出力、Metal APIは対象外。
残念ながら、ゲーマーや映像クリエイターには関係ないという。ちょっと残念ですが。

できること/できないこと

✅ できる LLM・AI推論(tinygrad経由)
✅ できる AMD・NVIDIAどちらも対応
✅ できる SIP無効化なしでインストール可
❌ できない ゲーム・グラフィックス描画
❌ できない Metal API / 映像出力
❌ できない Ollamaなど他フレームワークでの利用(現時点)

SIP(System Integrity Protection)は”システム整合性保護”の略。

macOSの根幹を守るセキュリティ機能で、OSのコアファイルやカーネル拡張を外部から書き換えられないようにしています。eGPUのような非公式ドライバーをカーネルレベルで動かすためには、SIPを無効化する必要がありました——つまり「Macの防護壁を自分で下げてから使う」という状態。この場合、セキュリティリスクがあり、一般ユーザーには推奨できない手順です。

今回のTinyGPUはカーネルではなくユーザー空間(DriverKit)で動くため、SIPに触れずに済む。これが「SIP無効化不要」の意味合いになります。

使うのに必要なもの

前提として、コマンドライン操作に慣れていることが必要です。プラグ&プレイではありません。

必要なもの

  • Mac:Thunderbolt 4またはUSB4搭載のApple Silicon Mac(M1以降)
  • eGPUアダプター:ADT-UT3G(Thunderbolt/USB4→PCIe変換)+ ATX電源
  • GPU:AMD RDNA3以降(RX 7000シリーズ等)またはNVIDIA Ampere以降(RTX 30シリーズ以降)
  • ソフト:tinygrad master(GitHubから)、NVIDIAの場合はDockerも必要
  • 帯域の制約:Thunderbolt 4は最大40Gbps。PCIe x16(128Gbps)より遅いため、速度は理論値の上限より低くなる

なぜ今まで使えなかったのか

Appleは2020年のApple Silicon移行時にeGPUサポートを廃止。MシリーズのユニファイドメモリアーキテクチャはCPUとGPUがメモリを共有する設計でもあり、外部GPUを公式サポートする必要がありませんでした。

Tiny Corpはカーネルではなくユーザー空間(DriverKit)で動作するドライバーとして実装することでAppleのセキュリティモデルをクリアし、正式承認を得た形。SIPを無効化しなくて済むのは、この設計によるものです。2025年5月に実験的実装を公開してから約11ヶ月、Apple公式の承認まで漕ぎ着けた形で、相当頑張った感もあります。

💬 軽めインプレ所感

「Mac使っててローカルLLMの速度が物足りない」という層には、リアルな選択肢。

とはいえ、ゲームができるわけでもないし、コマンドライン必須だし、やはりコーディングをゴリゴリ進めるデベロッパーがメイン市場ということになりそうです。

AIは一つだけに限定するよりも用途に合わせて使い分ける方向になってきてるし、ローカルLLM組んで作業分散させるのは定番になるんでしょうね。

ちなみに、そこまで本格コーディング派でなければ、コスト的にも使い勝手的にも、ここまで踏み込む必要も無いかなと思います。

これからAI使うよという方へのおすすめとしては、Claude,ChatGPT,Geminiの大御所三人衆の無料サービスから始めて、使い心地が好きなサービスをメインに選び、さらに、使用量上限に達した時や満足する結果が得られない時のために、1mi.AIあたりの複合サービスを持っておけば十分かと。