📘

モデル開発 - Informer モデルの設計

 

Informerとは?

⚠️
機能制限について
Informerは環境によってはご利用いただけません。
Informer は Transformer ベースの長期時系列予測モデルです。
Transformer は長期間にわたる依存関係を考慮した予測が可能ですが、計算コストが高いことが問題です。 Informer はこの欠点を改良し、より高速にメモリ使用量を削減して学習が可能です。
詳しい式はNTTコムの時系列データ分析ノウハウ集「ごちきか」該当記事を参照ください。
⚠️
利用する際の注意事項
  • 本機能はアドバンスドな機能です。利用の際には、データセットの特性や分析の目的に応じてパラメータを設定してください。
  • Informerによる学習は大変時間がかかる場合があります。学習が終わらない場合は学習に利用するデータ量を小さくするなどの対応を検討してください。
  • Informerを用いた場合は、要因分析、バリデーションなど一部機能に制限がある場合があります。

Informerカードの操作方法

結線

設計した AI モデル(📘モデル開発 - Informer モデルの設計 )と、学習用のデータ(時間窓切り出し 実施前 のものに限る) を結線してください。

各種パラメータの設定

設定可能なパラメータは以下の通りです。各パラメータの設定は、モデルの性能と過学習のリスクに直接影響を与えるため、データセットの特性や解析の目的に応じて設定してください。
パラメータ設定範囲必須パラメータ備考
1以上の整数値Informer encoder の入力シーケンス長。
1以上の整数値予測シーケンスの長さ。モデルが未来を予測するためのタイムステップ数。
1以上の整数値学習エポック数。モデルがトレーニングデータを何回繰り返して学習するか。
1以上の整数値(空の場合は256が自動で採用)モデルの次元。モデル内の各層の出力サイズ。
1以上の整数値(空の場合は8が自動で採用)Attention の head 数。
1以上の整数値(空の場合は2が自動で採用)encoder 層数。より多い層は、より複雑な関係性をモデル化できるが、計算資源と過学習のリスクが増える。
1以上の整数値(空の場合は2が自動で採用)decoder 層数。デコーダーの深さ。
1以上の整数値(空の場合は2048が自動で採用)出力全結合層の次元。
文字列時間特徴 encoding (defaults to timeF). timeF, fixed, learned. 時間特徴量の埋め込み方法。
0以上1以下の浮動小数点(空の場合は0.0が自動で採用)ドロップアウト率。過学習を防ぐために特定のノードを無効にする割合。
1以上の整数値(空の場合は32が自動で採用)学習入力データのバッチサイズ。
0以上1以下の浮動小数点(空の場合は0.0001が自動で採用)学習率。モデルのパラメータ更新のステップサイズ。
1以上の整数値(空の場合はseq_lenの値が自動で採用)Informer decoder のトークン開始長。

設計の保存

  • “実行” ボタンを押して、設定を保存します。
  • 設定内容に矛盾が存在する場合は、エラーが表示されます。
  • 処理時間が 5 分を超えるとタイムアウトし、処理が強制終了されます。この場合は再度実行をお試しください。再度実行しても結果が表示されない場合は、お手数ですが Node-AI サポートへお問い合わせください。