タグ
2件 · 1週間分
Google CloudのCloud Run(GPU付き)上にOllamaをデプロイし、ローカルから大規模言語モデル(LLM)にアクセスできる環境を構築する手法が解説されています。この方法により、30B程度のLLMをローカルPCの制約なしにクラウド経由で利用することが可能になります。
Zenn記事「AIはもう1つじゃない——チームで使う時代のAI完全ガイド」は、「どのAIが最強か」という問いではなく、ChatGPT、Claude、Geminiなどの主要AIを「5人の異なる同僚」として捉え、それぞれの強みと弱み、具体的な組み合わせ方を通じて、チームでのAI活用を最大化するアプローチを提案しています。