ローカルAI X Facebook はてブ Pocket LINE コピー 2026.02.23 ローカル動作のLLMを試す。しかもAMD RADEON GPUで挑戦! RX9060XTでローカルLLMモデルを動作させよう なんでそうなった? 実際に構築してみた llama.cppサーバーでgpt-oss 20Bを試す