📘
モデル開発 - Informer モデルの設計
Informerとは?
機能制限について
Informerは環境によってはご利用いただけません。
Informerは環境によってはご利用いただけません。
Informer は Transformer ベースの長期時系列予測モデルです。
Transformer は長期間にわたる依存関係を考慮した予測が可能ですが、計算コストが高いことが問題です。
Informer はこの欠点を改良し、より高速にメモリ使用量を削減して学習が可能です。
利用する際の注意事項
- 本機能はアドバンスドな機能です。利用の際には、データセットの特性や分析の目的に応じてパラメータを設定してください。
- Informerによる学習は大変時間がかかる場合があります。学習が終わらない場合は学習に利用するデータ量を小さくするなどの対応を検討してください。
- Informerを用いた場合は、要因分析、バリデーションなど一部機能に制限がある場合があります。
Informerカードの操作方法
結線

各種パラメータの設定
設定可能なパラメータは以下の通りです。各パラメータの設定は、モデルの性能と過学習のリスクに直接影響を与えるため、データセットの特性や解析の目的に応じて設定してください。
パラメータ | 設定範囲 | 必須パラメータ | 備考 |
---|---|---|---|
1以上の整数値 | ○ | Informer encoder の入力シーケンス長。 | |
1以上の整数値 | ○ | 予測シーケンスの長さ。モデルが未来を予測するためのタイムステップ数。 | |
1以上の整数値 | ○ | 学習エポック数。モデルがトレーニングデータを何回繰り返して学習するか。 | |
1以上の整数値(空の場合は256が自動で採用) | モデルの次元。モデル内の各層の出力サイズ。 | ||
1以上の整数値(空の場合は8が自動で採用) | Attention の head 数。 | ||
1以上の整数値(空の場合は2が自動で採用) | encoder 層数。より多い層は、より複雑な関係性をモデル化できるが、計算資源と過学習のリスクが増える。 | ||
1以上の整数値(空の場合は2が自動で採用) | decoder 層数。デコーダーの深さ。 | ||
1以上の整数値(空の場合は2048が自動で採用) | 出力全結合層の次元。 | ||
文字列 | 時間特徴 encoding (defaults to timeF). timeF, fixed, learned. 時間特徴量の埋め込み方法。 | ||
0以上1以下の浮動小数点(空の場合は0.0が自動で採用) | ドロップアウト率。過学習を防ぐために特定のノードを無効にする割合。 | ||
1以上の整数値(空の場合は32が自動で採用) | 学習入力データのバッチサイズ。 | ||
0以上1以下の浮動小数点(空の場合は0.0001が自動で採用) | 学習率。モデルのパラメータ更新のステップサイズ。 | ||
1以上の整数値(空の場合はseq_lenの値が自動で採用) | Informer decoder のトークン開始長。 |
設計の保存
- “実行” ボタンを押して、設定を保存します。
- 設定内容に矛盾が存在する場合は、エラーが表示されます。
- 処理時間が 5 分を超えるとタイムアウトし、処理が強制終了されます。この場合は再度実行をお試しください。再度実行しても結果が表示されない場合は、お手数ですが Node-AI サポートへお問い合わせください。