MENU

「Red Hat OpenShift AI 2.15」をリリース、大規模言語モデル(LLM)の効率的な微調整も可能に ~コンテナプラットフォームの開発・運用をさらに効率化

レッドハットは11月19日、「Red Hat OpenShift AI 2.15」を発表した(米国Red Hatの発表は11月12日)。

Red Hat OpenShiftは、Red Hatが提供するKubernetesベースのエンタープライズ向けコンテナプラットフォームで、コンテナのデプロイメントや管理、スケーリングを可能にする以下の特徴をもつ。

・インフラ運用の効率化やアプリケーション開発の生産性向上への貢献
・組織のポリシーに準拠したコードの構築、実行、デプロイを可能にする

Red Hat OpenShift AIは、OpenShiftの機能をAIの援用によりさらに効率化し、ハイブリッドクラウド全体で大規模なAI対応アプリケーションの作成・提供を可能にするもの。

今回のRed Hat OpenShift AI 2.15では、モデルレジストリやデータドリフト検出、バイアス検出ツール、LoRAによる大規模言語モデル(LLM)のより効率的な微調整、NVIDIA NIMのサポートなどに対応した。

・モデルレジストリは、登録されたモデルを表示および管理するもの。予測型生成AIモデル、メタデータ、モデルアーティファクトの共有、バージョン管理、デプロイ、追跡の構造化と組織化を提供する。

・データドリフト検出は、デプロイされた機械学習(ML)モデルの入力データ分布の変化を監視するもの。ドリフト検出は、入力データを継続的に監視し、モデルを実際のデータと一致させて、長期にわたり予測精度を維持し、モデルの信頼性を検証するのに役立つ。

・バイアス検出ツールは、モデルが公正で偏りがないかを監視するもの。

・LoRAによる大規模言語モデル(LLM)のより効率的な微調整は、Llama3などのLLMのより効率的な微調整を可能にするもの。これにより企業はコストとリソース消費を削減しながら、AIワークロードを拡張できる。

・NVIDIA NIMのサポートのNIMとは、AIモデルの推論環境を本番環境にデプロイするためのマイクロサービス。NIMとの統合により、幅広いAIモデルをサポートし、生成AIの導入を迅速化する。

レッドハットは、Red Hat OpenShift AI 2.15の利用により、データサイエンティストはグループ化されたパイプラインの実行を、より簡単に管理、比較、分析できるようになるとしている。

[i Magazine・IS magazine]

新着