タグ
1件 · 1週間分
OllamaがMLXに対応したプレビューリリースを行い、MacユーザーにとってローカルでのLLM活用がさらに手軽かつ高性能になりました。これにより、プライバシーとコストを両立させながら、Mac Studio M4 MaxなどのApple Silicon搭載マシンで高度なAI処理が可能になります。