レッドハットは11月19日、「Red Hat OpenShift AI 2.15」を発表した(米国Red Hatの発表は11月12日)。
Red Hat OpenShiftは、Red Hatが提供するKubernetesベースのエンタープライズ向けコンテナプラットフォームで、コンテナのデプロイメントや管理、スケーリングを可能にする以下の特徴をもつ。
・インフラ運用の効率化やアプリケーション開発の生産性向上への貢献
・組織のポリシーに準拠したコードの構築、実行、デプロイを可能にする
Red Hat OpenShift AIは、OpenShiftの機能をAIの援用によりさらに効率化し、ハイブリッドクラウド全体で大規模なAI対応アプリケーションの作成・提供を可能にするもの。
今回のRed Hat OpenShift AI 2.15では、モデルレジストリやデータドリフト検出、バイアス検出ツール、LoRAによる大規模言語モデル(LLM)のより効率的な微調整、NVIDIA NIMのサポートなどに対応した。
・モデルレジストリは、登録されたモデルを表示および管理するもの。予測型生成AIモデル、メタデータ、モデルアーティファクトの共有、バージョン管理、デプロイ、追跡の構造化と組織化を提供する。
・データドリフト検出は、デプロイされた機械学習(ML)モデルの入力データ分布の変化を監視するもの。ドリフト検出は、入力データを継続的に監視し、モデルを実際のデータと一致させて、長期にわたり予測精度を維持し、モデルの信頼性を検証するのに役立つ。
・バイアス検出ツールは、モデルが公正で偏りがないかを監視するもの。
・LoRAによる大規模言語モデル(LLM)のより効率的な微調整は、Llama3などのLLMのより効率的な微調整を可能にするもの。これにより企業はコストとリソース消費を削減しながら、AIワークロードを拡張できる。
・NVIDIA NIMのサポートのNIMとは、AIモデルの推論環境を本番環境にデプロイするためのマイクロサービス。NIMとの統合により、幅広いAIモデルをサポートし、生成AIの導入を迅速化する。
レッドハットは、Red Hat OpenShift AI 2.15の利用により、データサイエンティストはグループ化されたパイプラインの実行を、より簡単に管理、比較、分析できるようになるとしている。
[i Magazine・IS magazine]