G検定模擬試験set1
(解説あり)(イ)に最もよくあてはまる選択肢を 1 つ選べ.
大規模なディープニューラルネットワーク(DNN)の学習では学習するべきパラメータ数が膨大となるため,処理の高速化が必要となる.2012 年に提案された分散並列技術である(ア)や画像処理に特化したプロセッサの(イ)は大規模なニューラルネットワークの学習を実現するために利用されてきた.また,大規模なニューラルネットワークの学習が困難となる原因の一つとして,ある層の入力がそれより下層の学習が進むにつれて変化する(ウ)がある.(ウ)を防ぐために出力値の分布の偏りを抑制する(エ)が 2015 年に提案されている.
(解説あり)(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
大規模なディープニューラルネットワーク(DNN)の学習では学習するべきパラメータ数が膨大となるため,処理の高速化が必要となる.2012 年に提案された分散並列技術である(ア)や画像処理に特化したプロセッサの(イ)は大規模なニューラルネットワークの学習を実現するために利用されてきた.また,大規模なニューラルネットワークの学習が困難となる原因の一つとして,ある層の入力がそれより下層の学習が進むにつれて変化する(ウ)がある.(ウ)を防ぐために出力値の分布の偏りを抑制する(エ)が 2015 年に提案されている.
(解説あり)(エ)に最もよくあてはまる選択肢を 1 つ選べ.
大規模なディープニューラルネットワーク(DNN)の学習では学習するべきパラメータ数が膨大となるため,処理の高速化が必要となる.2012 年に提案された分散並列技術である(ア)や画像処理に特化したプロセッサの(イ)は大規模なニューラルネットワークの学習を実現するために利用されてきた.また,大規模なニューラルネットワークの学習が困難となる原因の一つとして,ある層の入力がそれより下層の学習が進むにつれて変化する(ウ)がある.(ウ)を防ぐために出力値の分布の偏りを抑制する(エ)が 2015 年に提案されている.
(解説あり)(ア)に最もよくあてはまる選択肢を 1 つ選べ.
畳み込みニューラルネットワークは,畳み込み層とプーリング層を積み上げた構成をしている.画像データを用いた場合,畳み込み層では,出力画像のサイズを調整するために元の画像の周りを固定の値で埋める(ア)を行う.プーリング層では畳み込み層の出力を圧縮するプーリングを行う,(イ)などの手法がある.
(解説あり)(イ)に当てはまらない選択肢を 1 つ選べ.
畳み込みニューラルネットワークは,畳み込み層とプーリング層を積み上げた構成をしている.画像データを用いた場合,畳み込み層では,出力画像のサイズを調整するために元の画像の周りを固定の値で埋める(ア)を行う.プーリング層では畳み込み層の出力を圧縮するプーリングを行う,(イ)などの手法がある.
(解説あり)(ア)にあてはまらない選択肢を 1 つ選べ.
ニューラルネットワークには(ア)などの多くのハイパーパラメータが存在し,これらの値が精度に大きな影響を与える.ハイパーパラメータのチューニング方法としては,パラメータの候補値を指定し,それらの組み合わせを調べる(イ)などがある.また,近年は,ハイパーパラメータを含め最適化問題とする(ウ)が効率的なチューニング方法として注目をあびている.
(解説あり)(イ)に最もよくあてはまる選択肢を 1 つ選べ.
ニューラルネットワークには(ア)などの多くのハイパーパラメータが存在し,これらの値が精度に大きな影響を与える.ハイパーパラメータのチューニング方法としては,パラメータの候補値を指定し,それらの組み合わせを調べる(イ)などがある.また,近年は,ハイパーパラメータを含め最適化問題とする(ウ)が効率的なチューニング方法として注目をあびている.
(解説あり)(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
ニューラルネットワークには(ア)などの多くのハイパーパラメータが存在し,これらの値が精度に大きな影響を与える.ハイパーパラメータのチューニング方法としては,パラメータの候補値を指定し,それらの組み合わせを調べる(イ)などがある.また,近年は,ハイパーパラメータを含め最適化問題とする(ウ)が効率的なチューニング方法として注目をあびている.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
自己符号化器はニューラルネットワークによる(ア)の代表的な応用であり,出力が入力に近づくようにニューラルネットを学習させる.主に(イ)のために利用されることが多く,活性化関数に恒等写像を用いた場合の 3 層の自己符号化器は(ウ)と同様の結果を返す.自己符号化器を多層化すると,ディープニューラルネット同様に勾配消失問題が生じるため,複雑な内部表現を得ることは困難であった.この問題に対して 2006 年頃に(エ)らは,単層の自己符号化器に分割し入力層から繰り返し学習させる(オ)を積層自己符号化器に適用することで,汎用的な自己符号化器の利用を可能とした.また,自己符号化器の代表的な応用例として(カ)がある.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
自己符号化器はニューラルネットワークによる(ア)の代表的な応用であり,出力が入力に近づくようにニューラルネットを学習させる.主に(イ)のために利用されることが多く,活性化関数に恒等写像を用いた場合の 3 層の自己符号化器は(ウ)と同様の結果を返す.自己符号化器を多層化すると,ディープニューラルネット同様に勾配消失問題が生じるため,複雑な内部表現を得ることは困難であった.この問題に対して 2006 年頃に(エ)らは,単層の自己符号化器に分割し入力層から繰り返し学習させる(オ)を積層自己符号化器に適用することで,汎用的な自己符号化器の利用を可能とした.また,自己符号化器の代表的な応用例として(カ)がある.