Home Lab
PR

RX570でローカルLLMを動かしてみた!古いGPUでもAIは使えるのか?

pesche
記事内に商品プロモーションを含む場合があります

みなさんこんにちわ

ペスケです。

みなさんは、「古いGPUでもローカルLLMって動くの?」そんな疑問を持ったことはありませんか?

今回は手元にあった Radeon RX570 8GB を使って、実際にローカルLLMを動かせるか検証してみました。結論から言うと動きます
ただし、知っておくべきポイントがいくつかあります。

検証マシンのスペック

パーツスペック
CPURyzen 5 3600
RAM32GB DDR4
ストレージSATA SSD 250GB
GPURadeon RX570 8GB
電源550W
OSUbuntu Server

注目すべきはGPU。RX570は2017年発売で、もはや「古参」と呼んで差し支えない世代です。
最新のRTX 4090とは比べるべくもありませんが、VRAMが8GBあるこれが今回のカギになります。

動かしたモデル:Qwen 2.5 3B

今回使用したモデルは qwen2.5:3b(パラメータ数30億)。

Alibaba開発の最新世代LLMで、日本語の精度が高いことでも知られています。
3Bモデルなら8GBのVRAMに十分収まるため、RX570でも動作が見込めるサイズ感です。

構成ツール:Ollama + Open WebUI

ローカルLLM環境の構築には、以下の2つを組み合わせました。

Ollama はローカルでLLMを実行するためのランタイムで、モデル管理やAPIサーバー機能を備えています。Open WebUI はChatGPTライクなブラウザUIで、Ollamaと連携してチャット形式でAIと会話できます。

Docker Composeでまとめて構築できるよう、構成一式をGitHubで公開しています。

👉 GitHub: RX570-ollama-openwebui-stack

AMD GPU(RX570)で動かす際の注意点

NVIDIAのGPUと違い、AMD GPUでOllamaを使うにはいくつかハードルがあります。

ROCmが必須。 AMDのGPUコンピューティング基盤であるROCmが必要です。
Ollamaが対応しているバージョンをしっかり確認しましょう。

Linux(Ubuntu Server)推奨。 ROCmのドライバサポートはLinuxが本命。
Windows環境では対応が限定的です。

速度はNVIDIAに劣る。
同スペック帯のNVIDIA GPUと比較すると、推論速度は遅くなる傾向があります。

3Bモデルが現実ライン。
8GBのVRAMでは7Bモデルは厳しく、3Bモデルが快適に動作するボーダーラインです。

実際に使ってみた感想

応答速度は最新GPUと比べると遅く感じる場面もあります。
しかし、ローカルで完全にプライベートなAI環境を持てるというメリットは大きい。

クラウドAPIに毎月お金を払い続けるよりも、手持ちの古いPCを再活用する選択肢として十分アリだと感じました。
「まず試してみる」第一歩としては理想的な構成です。

まとめ

項目評価
動作可否✅ 動く
推奨モデルサイズ3B以下
実用性△ 速度に妥協が必要
コスパ◎ 古いGPUの再活用に最適

「新しいGPUを買う予算はないけど、ローカルAIを試してみたい」──そんな方にとって、今回の構成はひとつの答えになるはずです。
構築手順の詳細はGitHubのREADMEをチェックしてみてください。

ABOUT ME
ペスケ
ペスケ
駆け出しブロガー
静岡県出身現在愛知県に住む30歳 グルメと旅行がとても好きで良く遊びに行きます 2026年は、マリオット・ホテルにたくさん宿泊することが目標です
記事URLをコピーしました