最新AI論文をキャッチアップ

グラフは不規則サンプリングされた時系列データにも強力

グラフは不規則サンプリングされた時系列データにも強力

Time-series

3つの要点
✔️ 欠損データの補完を回避し、不規則にサンプリングされた時系列データを直接モデル化するアプローチです
✔️ グラフ構造を通してメッセージパッシングすることにより、近隣ノードの状態から情報集約しています
✔️ データ欠損の様々な設定に対して評価した結果、いずれも従来SOTAに比較して優れた結果を示しています

Graph-Guided Network for Irregularly Sampled Multivariate Time Series
written by Xiang ZhangMarko ZemanTheodoros TsiligkaridisMarinka Zitnik
(Submitted on 11 Oct 2021)
Comments: Published on arxiv.

Subjects: Machine Learning (cs.LG); Artificial Intelligence (cs.AI)

code:  

本記事で使用している画像は論文中のもの、紹介スライドのもの、またはそれを参考に作成したものを使用しております。  

はじめに

この論文では、多変量時系列センサー測定値の収集での観測値の欠落による様々な種類の不規則性により引き起こされるさまざまな実用的な問題について取り組みます。時間的機械学習モデルは通常、完全に観測可能で固定長の入力データを想定していますが、不規則にサンプリングされた時系列はかなりの課題を引き起こします。例えば、複数のセンサの観測値がうまく整合していない、隣接する観測値間の時間間隔がセンサ間で異なる、異なるサンプルでは、異なる時点で記録されたセンサのサブセットの観測値の数が異なる、などです。

不規則にサンプリングされた時系列を扱う以前の方法では、補間、カーネル法、および確率的アプローチを用いて、欠損値を埋めることが行われていました。観測値の欠損は情報力を持ち合わせており、そのため欠損データの補完は必ずしも有益ではないとされています。再帰ニューラルネットワークアーキテクチャ(例えば、RNN、LSTM、GRU)やトランスフォーマーなど現代の技術では、定期的なサンプリングに限定されているか、または様式間で整合した測定値を想定しています。ずれた測定値の場合、既存の手法は、データセットの定期的にサンプリングされたバージョンを得るために補完を行い、その後、分類などの下流のタスクを実行するという2段階のプロセスに依存する傾向があります。このような切り離されたアプローチでは、下流のタスクに不可欠な情報的な欠落パターンを十分に利用できない可能性があり、その結果、最適な性能が得られません。そのため、補完を回避し、不規則にサンプリングされた時系列データを直接モデル化するいくつかのアプローチが提案されています。 しかし、不規則にサンプリングされた多変量時系列の特徴に対応するために、表現学習における関係構造を考慮したものはありませんでした。

提案手法概要

不規則にサンプリングされた時系列データの特徴に対処するために、センサーの依存関係の時間的なダイナミクスと、それらの関係が時間とともにどのように展開するかをモデル化することを提案します。RAINDROPは、不規則にサンプリングされた多変量時系列データを埋め込んで分類するために、関係構造を利用したグラフガイドネットワークです。RAINDROPは、サンプルを入力とし、各サンプルには複数のセンサーが含まれ、各センサーは不規則に記録された観測データ(例えば、臨床データでは、個々の患者の健康状態が不規則な時間間隔で記録され、異なる時間に観測されたセンサーのサブセットがある)で構成されます。RAINDROPモデルは、雨粒が不均一な時間間隔でプールに落ち、それによってプール全体に伝播する波及効果を生み出すというアイデアに基づいています。

RAINDROPは、不規則にサンプリングされた時系列の表現を学習する際に、センサーの依存性を明示的にモデル化した初めてのモデルです。RAINDROPでは、各サンプルごとに独立したセンサーグラフを用いて依存性を表現しています。RAINDROP は,各サンプル内の個別のセンサ依存性を捉えることに加えて, i) アテンションの重みを計算する際にパラメータを共有することで異なるサンプル間の類似性を利用し, ii) 時間的なアテンションによって連続する観測の重要性を考慮します。RAINDROPは、記録された情報と学習されたグラフ構造に基づいて、観測の欠落を適応的に推定します。RAINDROPの評価は、3つのデータセットと、テストセット内のセンサーのサブセットが故障した(つまり、まったく読み取れない)設定を含む4つの実験設定において、5つの最新手法と比較しました。実験の結果,RAINDROPはすべてのデータセットにおいてベースラインを上回り,分類タスクにおいて平均3.5%のAUROC改善(絶対値)を達成しました.さらに,RAINDROPは,一部のセンサが故障した場合でも,かなりのマージン(活動認識の精度で絶対値9.3%)を達成しました。

関連技術は、「不規則にサンプリングされた多変量時系列の学習」と、「グラフを使った学習とニューラルメッセージパッシング」です。いずれも2020年以降の先行研究が多いです。詳細は、原論文を参照してください。

RAINDROP

D = {(Si,yi) | i = 1,...,N}を,N個のラベル付きサンプルを持つ不規則な時系列データセットとします(Figure 2)。すべてのサンプルSiは,対応するラベルyi∈{1,...,C}を持つ不規則な多変量時系列で,SiがC個のクラスのどれに関連するかを示しています。各サンプルには、u、vなどと表記されるM個の非一様に測定されたセンサーが含まれています。RAINDROP は,センサーのサブセットを持つサンプルに対しても動作することができます。各センサは,時間順に並べられた観測値のシーケンスで与えられます。サンプル Si のセンサ u について,1 つの観測値をタプル (t,$ x^t_i $,u) と表記します。センサの観測値は不規則に記録されるため,連続する観測値の間の時間間隔はセンサごとに異なる可能性があります。課題を次のように設定します。

問題(不規則にサンプリングされた多変量時系列の表現学習)

不規則にサンプリングされた多変量時系列のデータセットDが与えられる。各サンプルSiは複数のセンサーを持ち、各センサーは可変の観測値を持つ。RAINDROP は,Si を固定長の表現 zi に写す関数 f : Si → zi を学習する.これは,分類などの下流のタスクに適している。学習したziを用いて,RAINDROPはSiのラベル$\hat{y}_i $∈{1,...,C}を予測することができる。

RAINDROPは、不規則にサンプリングされた時系列に対して、情報量の多い埋め込みを学習します。学習された埋め込みは、不規則な観測の時間的パターンを捉え、センサー間の様々な依存性を明示的に考慮します。論文内では、時系列の分類に焦点を当てていますが、提案手法は、回帰、クラスタリング、生成タスクなどの幅広いアプリケーションに容易に拡張できます。

RAINDROP は,与えられた Si に対して固定次元の埋め込み zi を学習し,関連するラベル$ \hat{y}_i $ を予測することを目的とします。RAINDROPは、観測データの埋め込み、センサーの埋め込み、サンプルの埋め込みからなる階層構造でサンプルの埋め込みを学習します(Figure 2)。RAINDROPの学習方法は,特定の時刻tに最大で1つの観測がある場合(1つのセンサが観測を持ち,残りのセンサは観測を持たない)を例に説明します。同時に複数の観測がある場合,RAINDROP はそれらすべてを並列に処理することができます。まず,各サンプルに対して,ノードがセンサを表し,エッジがセンサ間の関係を表すグラフを構築します。各サンプル Si はグラフ Gi に対応しており,ここで ei,uv はセンサ u からセンサ v に向かう有向エッジの重みを表しています。

RAINDROPの基本的な考え方は,uと他のセンサとの関係を推定して,uの隣から情報を借りることです。これは、Siの依存関係グラフ上で行われるメッセージパッシングによって達成され、グラフ内のノードuで開始されます。観測値(t,$ x^t_{i,u} $)が時刻tにサンプルSiに記録されると,RAINDROPはまずアクティブセンサu(値が記録されたセンサ)に観測値を埋め込み,次にセンサ依存性グラフGiのエッジに沿ってuから近隣のセンサにメッセージ(すなわち観測値の埋め込み)を伝搬します。その結果,u の値を記録することは,u の埋め込みだけでなく,u に関連する他のセンサの埋め込みにも影響を与えることになります。最後に,RAINDROP は,各センサのすべての観測埋め込みを(すべてのタイムスタンプに渡って)時間的アテンションを用いて集約することにより,センサ埋め込みを生成します。RAINDROP は全てのセンサの埋め込みに基づいて全てのサンプル Si を埋め込み,学習されたサンプルの埋め込みを下流の分類器に与えます。

センサー依存関係グラフの構築

各サンプル Si に対して有向重み付きグラフ Gi = {V,Ei} を作成し,これを Si のセンサ依存性グラフと呼びます。ノード V はセンサを表し,エッジ Ei は RAINDROP が推論するサンプル Si のセンサ間の依存関係を表します。実験で示すように,RAINDROP は V に含まれるセンサのサブセットのみを含むサンプルに直接使用することができます。u から v へのエッジをトリプレット (u, ei,uv, v) と表します。エッジ(u,ei,uv,v)はuとvの関係を表しており,uは観測値を受け取ると,エッジei,uvに従ってvにニューラルメッセージを送信します。ei,uv = 0であれば、uとvの間でニューラル情報の交換はなく、2つのセンサは無関係であることを示しています。ここでは,u から v への重要性と v から u への重要性は異なると仮定し,センサ依存性グラフを有向として扱います。すなわち,ei,uv $ \neq $ ei,vu とします。すべてのグラフは,完全連結グラフとして初期化され(すなわち,任意の u, v, Si に対して ei,uv = 1),モデルの学習中に式 3 に従ってエッジの重み ei,uv が更新されます。利用可能であれば、追加のドメイン知識をグラフの初期化に統合することも容易です。

個々の観測についての埋め込みを生成

センサーuが時刻t∈Ti,uで起動し、観測値$x^t_{i,u} $を受信し、uはエッジ(u,ei,uv,v)でvと接続されているとします。次に、センサuとvの観測埋め込み$ h^t_{i,u} $∈Rdhと$ h^t_{i,v} $∈Rdhをそれぞれ生成します(Figure 3a)。

アクティブなセンサの埋め込み観測:u を,観測データ $ x^t_{i,u} $ を受け取ったアクティブなセンサとして扱います。十分な表現力を得るため、非線形変換を用いて観測$ x^t_{i,u} $を高次元空間にマッピングします:$ h^t_{i,u} $ = σ($ x^t_{i,u} R_u $)。ここで,センサ固有の変換を用いるのは,異なるセンサで記録された値が異なる分布に従う可能性があるからであり,これは,どのセンサが活性化されているかに応じて訓練可能な重みベクトルRuによって達成されます。$ x^t_{i,u} $を$ h^t_{i,u} $に変換するための代替機能(多層パーセプトロンなど)も考えられます。$ h^t_{i,u} $は$x^t_{i,u} $を測定することによってもたらされる情報を表しているため,$ h^t_{i,u} $をtにおけるuの観測埋め込みとみなします。センサ固有の重みベクトルRuはすべてのサンプルで共有されます。

・センサー依存性グラフにおけるメッセージパッシング

タイムスタンプ t の時点ではアクティブではないが,センサ依存関係グラフ Gi においてアクティブなセンサ u の隣ノードであるセンサに対して,RAINDROP は u とそれらのセンサの関係を用いて,それらのセンサの観測埋め込みを推定します。ここでは,RAINDROP がどのようにしてセンサ v の観測埋め込み $ h^t_{i,v} $ を生成するかを説明します。$ h^t_{i,u} $とエッジ(u,ei,uv,v)が与えられた場合,まずセンサ間アテンション$ α^t_{i,uv} $∈[0,1]を計算し,uがvにとってどれだけ重要であるかを以下の式で表します:

$ α^t_{i,uv} = σ(h^t_{i,u} D[r_v||p^t_i]^T) $, (1)

ここで,$ r_v∈R^{d_r} $はメッセージを受け取るセンサ(すなわち,$ h^t_{i,u} $)に固有の学習可能な重みベクトルです。さらに,$ p^t_i∈R^{d_t} $は,1次元のタイムスタンプtを一連の三角関数に通して多次元ベクトルptiに変換して得られるタイムスタンプ符号化です。詳細は付録A.1を参照してください。RAINDROPはptiを使って、時間に敏感な注目度の重みを計算します。最後に,Dは$ h^t_{i,u} $をdh次元から(dr+dt)次元にマッピングする訓練可能な重み行列です。

$ h^t_{i,v} = σ(h^t_{i,u}w_uw^T_vα^t_{i,uv}e_i,u_v) $, (2)

ここで,$ w_u,w_v∈R^{d_h} $は,すべてのサンプルで共有される学習可能な重みベクトルです。上式において,$ e_{i,uv} $は全タイムスタンプで共有されるエッジ重みを表します。上記のメッセージパッシングは,1つのタイムスタンプにおける1つの観測の処理を記述したものです。これらのメッセージパッシングは,記録された情報と学習されたグラフ構造に基づ いて,埋め込み空間に欠けている観測値を適応的かつ動的に推定するために行われます。

センサー依存性グラフの更新

複数のRAINDROPレイヤーを重ねた状況でのエッジ重みの更新とグラフ構造の刈り取りについて説明します。ここでは,複数のレイヤが計算に関与しているため,レイヤインデックスlを明示しています。事前知識がないため,グラフはすべてのセンサが互いに接続されているものとして初期化します。しかし,完全に接続されたエッジは,独立しているはずのセンサをつなぐ可能性があります。これは,スプリアスな相関をもたらし,モデルが本当に重要な接続に注意を払うことを妨げることになります。この問題に対処するため,RAINDROP はエッジの重みを自動的に更新し,重要度の低いエッジを除去します。センサー間のアテンション重み$ α^{(l),t}_{i,uv} $によって駆動される集約された時間的影響に基づいて、各層l∈{1,...,L}におけるエッジ重み$ e^{(l)} _{i,uv} $を以下のように更新します。

ここで、Ti,uは、uからvへのメッセージ通過があるすべてのタイムスタンプの集合を示します。特に、グラフ構造の初期化においては、$ e^{(0)}_{i,uv} $ = 1とします。すべての実験でL = 2を使用しています。各層において,サンプルSiのすべてのエッジの推定値$ e^{(l)}_{i,uv} $を並べ替え,エッジの重みが最も小さい下位K%のエッジを刈り取る。刈り込まれたエッジは後の層では再登場しません。

センサー埋め込みを生成

次に,センサ v を例にとり,観測埋め込みをセンサ埋め込みに集約します(Figure 3b)。前のステップでは,Si のセンサ依存関係グラフにおいて v または v の近傍が観測されたすべてのタイムスタンプについて観測エンベッディングを出力します。次のステップでは,これらの埋め込みを,時間的アテンションを介してセンサ埋め込み zi,v に集約します。観測データの埋め込み $ h^t_{i,v} $ を,タイムスタンプの情報を含む時間表現 $ p^t_i $ で連結します。そして、すべてのt∈Ti,vに対する連結された埋め込み$ [h^t_{i,v}||p^t_i ] $を行列Hi,vにパックします。$ T_{i,v} = {t_1,t_2,...,t_T} $には、v(直接$ h^t_{i,v} $を生成できる)またはvの隣(メッセージパッシングにより$ h^t_{i,v} $を生成できる)で読み出しが観測されたすべてのタイムスタンプが含まれます。自己アテンションを用いて時間的アテンション重み$ β^t_{i,v} $を計算します。$ β^t_{i,v} $は,センサ埋め込み全体に対する観測埋め込みの重要性を表します。$ β^t_{i,v} $は、以下を通して計算されるβi,vの対応する要素です。

 

ここで、クエリ行列Qi,v = Hi,vWQとキー行列Ki,v = Hi,vWKは、それぞれWQとWKでパラメータ化されたHi,vから線形マッピングされた2つの行列です。$ \sqrt{d_k} $はスケーリングファクターであり、dkは線形マッピング後の次元です。我々のβi,vの計算は、マッピング重みベクトルsを持つことで、典型的な自己アテンションとは異なります。標準的なドット積自己アテンションは、観測埋め込みの各ペアに対するアテンション重みを持つ、T×T(ここで、T=|Ti,v|はサンプル間で変化し得る)の次元を持つアテンション行列を生成します。このケースでは,センサ埋め込みを生成する際に,各要素が観測埋め込みに払うべき注意を示す単一のアテンションベクトルだけが必要です。そこで,自己アテンションモデルをこのケースに合うように修正し,学習可能なsを用いて,ドット積の結果を行列(RT×T)からベクトル(RT)にマッピングすることにしました。そして,センサ埋め込みzi,vを計算します。

 

ここで、重み行列Wは、すべてのセンサーとサンプルで共有される線形投影です。すべてのアテンション重み($ α^t_{i,uv} $やβi,vなど)はマルチヘッドにすることができます。ここでは、簡潔にするためにシングルヘッドを用いてモデルを説明しています。RAINDROP は,アテンション集計を用いることで,任意の観測数に対して固定長のセンサ 埋め込みを学習することができます。一方、RAINDROPは最も情報量の多い観測埋め込みにフォーカスすることができます。RAINDROPは、すべての観測データの埋め込みを順次処理するのではなく、全体として処理します。これにより、並列計算による高速な学習が可能となり、また、長い依存関係を順次モデル化することによる性能低下を軽減することができます。非常に多くの観測データを持つセンサーの場合、サブサンプリングや、長い系列を複数の短い系列に分割することで、時系列の長さを短縮することができます。

サンプル埋め込みの生成

最後に,センサの埋め込みzi,v(式5)を集約して,サンプルSiの埋め込み$ z_i∈R^{d_z} $を以下のように得ます。$ z_i = [z_{i,1}||z_{i,2}||---||z_{i,M}] $ すべてのセンサ v = 1,2,...,M の間で。我々の予備実験によると、連結は、平均やスクイーズ励起読み出し関数などの他の一般的な集約関数よりも優れています。

実装と実用的な考慮

・損失関数

RAINDROPの損失関数は次のように定式化されます。L = LCE + λLr, ここで,$ L_r = \frac{1}{ M^2}\sigma_{u,v∈V} \sigma_{i,j∈V} ||e_{i,uv} - e_{j,uv}||_2/(N - 1)^2 $, ここで,LCE はクロスエントロピー分類損失であり,Lr は類似したサンプルに対して類似したセンサ依存性グラフを学習するようにモデルを促す正則化である.Lr は,すべてのサンプルペア,すべてのセンサペア(自己接続を含む)におけるエッジの重みの平均化されたユークリッド距離を測定します。λ は,ユーザが定義する係数です。実際には,N が大きくなる可能性があるため,各バッチのサンプルについてのみ Lr を計算します。

・下流のタスク 

サンプルが時間経過とともに変化しない補助的な属性(例えば,患者の人口統計)を持っている場合,属性ベクトルを完全に接続された層を持つ da 次元ベクトル ai に投影し,それをサンプルの埋め込みと結合することで,[zi||ai] を得ることができます。最後に、[zi||ai] (または、aiが利用できない場合はziのみ)をニューラル分類器φ : $ R^{d_z+d_a} $ → {1,...,C}に入力します。我々の実験では、φは出力層にC個のニューロンを持つ2層の完全連結ネットワークで、サンプルSiに対して予測値$ \hat{y_i} = ϕ([z_i||a_i]) $を返します。

・センサー依存性

センサー依存性をモデル化する際には、各サンプルの観測埋め込み($h^t_{i,u} $, Eq. 1)をアテンション重みの計算に含めます。同様に、グラフ構造の時間的特異性をモデル化するために、$ α^t_{i,uv} $を測定する際に時間情報($ p^t_i $, Eq. 1)を考慮します。RAINDROPは、3つの側面からサンプル間で類似したグラフ構造を捉えることができます。(1)初期グラフが全てのサンプルで同じであること、(2)メッセージパッシング(Ru; wu, wv, Eq.2)、センサ間アテンション計算(D, Eq.1)、時間的アテンション計算(s, Eq.4; W, Eq.5)のパラメータが全てのサンプルで共有されていること、(3)構造の不一致(Lr)にペナルティを加えることで、モデルに類似したグラフ構造を学習させることができます。

・スケーラビリティ 

RAINDROPは、埋め込みを並列に学習できるため、効率的です。特に、観測データの埋め込み処理は、タイムスタンプに依存しません。同様に、センサー埋め込みは、異なるセンサー間で独立して処理することができます(Figure 3)。時間的自己アテンションの計算の複雑さは、観測データの数に対して二次関数的に増大しますが、高度に最適化された行列乗算を用いて実用的に実装することができます。

実験

データセットは、ヘルスケア、人間活動に関するもので、P19, P12, PAMの3つです。

ベースラインは、5つの時系列分類のSOTAです。Transformer, Trans-mean, GRU-D, SeFT, mTAND。

複数の評価設定に対しての結果

設定1:古典的な時系列分類

(1) 設定 データセットをトレーニングセット(80%)、検証セット(10%)、テストセット(10%)にランダムに分割します。これらの分割の指標はすべての手法で固定されています。

(2) 結果 Table 1に示すように,RAINDROPは3つのベンチマークデータセットで最高の性能を得ており,標準的な時系列分類シナリオにおいて優れていることを示しています。特に,二値分類(P19 および P12)では,RAINDROP は 平均してAUROC で 5.3%,AUPRCで 4.8%,最強のベースラインを上回っています。また、8クラス分類という難易度の高いタスクにおいても、RAINDROPはPAMにおいて精度で5.7%、F1スコアで5.5%、既存のアプローチを上回っています。

設定2:固定されたセンサーを外す

(1) 設定 RAINDROPはセンサ間の依存関係を学習することで,あるセンサが完全に欠落していても良好な性能を得られるかどうかを評価します。この設定は,センサが故障した場合や,特定のシーンでセンサが利用できない場合など,現実的に意味のある設定です。直感では,RAINDROP は関係性を利用することで,近くの観測データからの情報の欠落を補うことができます。この設定では,ある割合のセンサを選択し,検証セットとテストセットにおいて,そのセンサの観測値をすべてゼロに設定します。また,情報利得によって選択された最も情報量の多いセンサをマスクアウトします。選択されたセンサーは,サンプルとモデルの間で固定されます。

(2) 結果 PAMを例にとり,結果を報告します。Table 2(左列)では,データ欠損率が 10% から 50% の間で,RAINDROP が 20 の設定のうち 18 で最も高い値を達成していることがわかります。欠損率とは,マスクアウトしたセンサの割合のことです。欠落データの比率が高くなるほど,このモデルは相対的に大きな利益を得ることができます。RAINDROP は,精度で最大 24.9%, 精度で 50.3%, リコールで 29.3%, F1 スコアで 42.8%,比較対象のベースラインを上回りました.

設定3:ランダムなセンサーでデータ欠落

(1) 設定 設定3は設定2と似ていますが,この設定では欠落したセンサーが固定ではなくランダムに選択されている点が異なります.各テストサンプルでは、センサーのサブセットを選択し、それらの観測値をすべてゼロに置き換えることで、それらを欠落したものとみなします。

(2) 結果 PAMの結果をTable 2(右列)に示します。設定2と同様に、20個の設定のうち16個の設定でRAINDROPがベースラインよりも優れた性能を達成しており、Trans-meanとGRU-Dは競合する手法であることがわかります。

設定4:グループ単位での時系列分類

(1) 設定 RAINDROPが適応的にその構造を調整し、モデルの学習時には観測されなかった他のグループのサンプルにうまく一般化できるかどうかを理解する。この設定では、特定の静的属性に基づいて、データを2つのグループに分割します。最初の分割属性は年齢で、若年層(65歳未満)と高齢層(65歳以上)に分類します。また、性別の属性によって、患者を男性と女性に分けます。分割された属性が与えられた場合、一方のグループを学習セットとして使用し、もう一方のグループをランダムに同じ大きさの検証セットとテストセットに分割します。

(2)結果 P19を例にして,トレーニングセットとテストセットが異なるグループの場合の分類結果を示します。Table 3に示すように,RAINDROPは,4つのグループを越えたシナリオのすべてにおいて,最高の結果を得ることができました.例えば,RAINDROPは,男性で学習し,女性でテストした場合,2番目に良いモデルに対して大きなマージン(AUROCで4.8%,AUPRCで13.1%の絶対的な改善)を主張しています。

切り分け評価および学習したグラフ構造の可視化

・切り分け評価 最も一般的なタスク(設定1)のPAMを例に、RAINDROPの3つの基本ステップであるセンサ間依存性(ei,uv、rv、$ p^t_i、α^t_{i,uv} $などの主要な重みにさらに分解される)、時間的アテンション、およびセンサレベルの連結の必要性を評価するために、切り分けを行います。Table6では,すべての成分と正則化項Lrがモデルの性能向上に重要であることを示しています.

・学習したセンサ依存関係グラフの可視化

学習したセンサ間依存関係を可視化することで,類似したサンプル(同じラベルを持つサンプル)が類似したグラフ構造を持つかどうかを調べます(P19; 設定1).Figure 4に示すように、ネガティブなサンプルとポジティブなサンプルのグラフ構造には区別できるパターンが見られ、RAINDROPが分類タスクに敏感な関係を適応的に学習できることを示しています。これは、RAINDROPが分類タスクに適した関係を適応的に学習できることを示しています。詳細は付録A.8をご覧ください。

まとめ

RAINDROPは、サンプル内のセンサー間の時変依存性を捕らえた、サンプルごとの明確なセンサー依存性グラフを作成します。 また、RAINDROPでは、このような論理構造を活用することで、限られた範囲の観測、連続した観測の時間間隔が一定でない場合、および観測記録数が少ないセンサーを自然に扱うことができます。 この結果から、RAINDROPは、多階調および二階調の分類タスクにおいて、センサー間の変化する関係やラベルの付け方など、最新の手法を超越していることがわかりました。この発見は、メッセージパッシングを利用することで、多階調の時系列における関係構造を有利に進めることができることを示唆しています。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
友安 昌幸 (Masayuki Tomoyasu) avatar
JDLA G検定2020#2, E資格2021#1 データサイエンティスト協会 DS検定 日本イノベーション融合学会 DX検定エキスパート 合同会社アミコ・コンサルティング CEO

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする