G検定模擬試験set1
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
自己符号化器(Autoencoder)は,出力が入力と同じものに近づくことを目指して学習する.(ア)のアルゴリズムであり,(イ)が可能になる.このときの(ウ)が入力の特徴を抽出した表現となる.
(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
自己符号化器(Autoencoder)は,出力が入力と同じものに近づくことを目指して学習する.(ア)のアルゴリズムであり,(イ)が可能になる.このときの(ウ)が入力の特徴を抽出した表現となる.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
機械学習において,重み更新に関わる単位として,(ア)と(イ)がある.(ア)は,重みが更新された回数であり,(イ)は訓練データを何回繰り返し学習したかを表す単位である.また一回の(ア)に用いるサンプル数は(ウ)と呼ばれる.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
機械学習において,重み更新に関わる単位として,(ア)と(イ)がある.(ア)は,重みが更新された回数であり,(イ)は訓練データを何回繰り返し学習したかを表す単位である.また一回の(ア)に用いるサンプル数は(ウ)と呼ばれる.
(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
機械学習において,重み更新に関わる単位として,(ア)と(イ)がある.(ア)は,重みが更新された回数であり,(イ)は訓練データを何回繰り返し学習したかを表す単位である.また一回の(ア)に用いるサンプル数は(ウ)と呼ばれる.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられ,ニューラルネットワークの中間層では,はじめ(イ)などの正規化の機能を持つ関数が好まれた.しかし現在では,誤差逆伝播で勾配が消失しやすいという問題から,中間層では勾配消失問題の影響を抑えられ,かつ簡単な(ウ)などが用いられている.また,出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられ,ニューラルネットワークの中間層では,はじめ(イ)などの正規化の機能を持つ関数が好まれた.しかし現在では,誤差逆伝播で勾配が消失しやすいという問題から,中間層では勾配消失問題の影響を抑えられ,かつ簡単な(ウ)などが用いられている.また,出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.
(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられ,ニューラルネットワークの中間層では,はじめ(イ)などの正規化の機能を持つ関数が好まれた.しかし現在では,誤差逆伝播で勾配が消失しやすいという問題から,中間層では勾配消失問題の影響を抑えられ,かつ簡単な(ウ)などが用いられている.また,出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.
(エ)に最もよくあてはまる選択肢を 1 つ選べ.
活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられ,ニューラルネットワークの中間層では,はじめ(イ)などの正規化の機能を持つ関数が好まれた.しかし現在では,誤差逆伝播で勾配が消失しやすいという問題から,中間層では勾配消失問題の影響を抑えられ,かつ簡単な(ウ)などが用いられている.また,出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
大きなニューラルネットワークなどの入出力をより小さなネットワークに学習させる技術として,(ア)がある.(ア)とは,すでに学習されているモデル(教師モデル)を利用して,より小さくシンプルなモデル(生徒モデル)を学習させる手法である.こうすることにより,生徒モデルを単独で学習させる場合よりも(イ)ことができる.