OpenShift AIブログまとめ

はじめに

こんにちはサイオステクノロジーの小野です。これまでOpenShift AIについての記事を多数書いてきたのでそれらのリンクを整理します。

OpenShift AI概要

OpenShift AIについてざっくりとした説明をしています。まずはこちらの記事を見てOpenShift AIとは何なのか知ってください。

Red Hat OpenShift AIとは?

OpenShift GPU設定

OpenShift AIとは直接関係ありませんが、OpenShift AIでGPUを利用した機械学習を行う場合には必要な設定になります。

OpenShiftへのノード追加

OpenShiftのマシンセットを設定することでノードを追加する方法について解説しています。この方法を利用してGPUノードを追加します。

OpenShift(AWS)へのノード追加

OpenShiftのGPU設定方法

OpenShiftへGPUノードを追加した後、GPUをOpenShiftに認識させるための設定を解説しています。

OpenShiftのGPU設定の方法について

OpenShift AI導入

OpenShift AIのオペレータをダウンロードして、ワークベンチのJupyterLabを開くところまで解説しています。

OpenShift AI を導入してみた

OpenShift AIのワークベンチ機能

OpenShift AIのワークベンチ機能を利用して機械学習を行う記事です。ワークベンチ機能についてよくわからないという方はこの記事を読んで何となく理解してください。

OpenShift AIで機械学習をやってみた

OpenShift AIのモデルサービング機能

OpenShift AIのモデルサービング機能を利用してモデルAPIを実装する解説をしています。これにより学習したモデルを簡単にAPIとして公開できます。

OpenShift AIのモデルサービング機能について

OpenShift AIのデータサイエンスパイプライン機能

OpenShift AIのデータサイエンスパイプライン機能を利用して機械学習のパイプラインを実行する方法を解説しています。パイプラインを利用することで迅速なモデル開発が可能になります。

OpenShift AIのデータサイエンスパイプラインについて

パイプラインのスケジュール設定

データサイエンスパイプラインをスケジュール設定する方法を解説しています。この設定をすることで常に最新のモデルAPIを提供することができます。

OpenShift AIのパイプラインにスケジュール設定してみた

OpenShift AIのLLM利用

OpenShift AIにLLMをデプロイする方法について解説しています。OpenShift AIのモデルサービング機能を利用してLLMをAPI提供します。

OpenShift AIのシングルモデルサービング環境を構築してみた

OpenShift AIにLLMをデプロイしてみた

OpenShift AIとOpenShift Lightspeed連携

OpenShift AIにデプロイしたLLMとOpenShiftのWebコンソール上で利用できるAIチャットボットサービスであるOpenShift Lightspeedを連携する記事です。これにより非接続環境でもAIチャットボット機能が利用できます。

OpenShift AIとOpenShift Lightspeedを連携してみた

OpenShift AIとOpenShift Dev Spaces連携

OpenShift AIにデプロイしたLLMとOpenShift上にクラウドIDEをデプロイできるOpenShift Dev SpacesのVSCodeでコード生成AIを利用する記事です。これにより非接続環境でもコード生成AIを利用できます。

OpenShift AIとOpenShift Dev Spaces連携 ~コード生成AIで楽々開発~
ご覧いただきありがとうございます! この投稿はお役に立ちましたか?

役に立った 役に立たなかった

0人がこの投稿は役に立ったと言っています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です