27,324解答

G検定模擬試験set1 - 未解答

    (解説あり)(ア)に最もよくあてはまる選択肢を 1 つ選べ.

    ディープラーニングでの学習を効率的に行うにあたって,共有データセットの整備が徐々に進められている.しかしながら,現在広く普及しているものには,いくつかの問題点が指摘されている. 第一は, (ア) の問題である.現在は公正な利用がなされているとされているが,企業が共有データセットを利用して学習したモデルを自社のプロダクトに転用して売り上げを上げようとした場合に問題はないのかという議論が巻き起こっている.他の問題として,これは日本にとっての問題であるが,多くのデータセットが (イ) であることが挙げられる.これにより,日本固有の食べ物を認識しようとすると,それが全く別の国の食べ物としてのみ認識されるという不具合が生じるに至っている.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    畳み込みニューラルネットワークの手法について扱う.(ア)は 1998 年に提案された,現在広く使われている CNN の元となるモデルであり,初めて多層 CNN に誤差逆伝播法を適用した手法である.2012 年に提案された(イ)は,画像認識のコンペティション ILSVRC で他手法に圧倒的な差をつけて優勝し,画像認識におけるディープラーニング活用の火付け役となった.しかし,一般に CNN は層を深くすると,パラメータ数が膨大となり学習が困難になってしまう傾向があった.層が深くなってもうまく学習を行うことができるモデルとして,ILSVRC2015 において多くの部門でトップの成績を収めた(ウ)がある.(ウ)は出力を入力と入力からの差分の和で表現したニューラルネットワークモデルである.

    (カ)に最もよくあてはまる選択肢を 1 つ選べ.

    自己符号化器はニューラルネットワークによる(ア)の代表的な応用であり,出力が入力に近づくようにニューラルネットを学習させる.主に(イ)のために利用されることが多く,活性化関数に恒等写像を用いた場合の 3 層の自己符号化器は(ウ)と同様の結果を返す.自己符号化器を多層化すると,ディープニューラルネット同様に勾配消失問題が生じるため,複雑な内部表現を得ることは困難であった.この問題に対して 2006 年頃に(エ)らは,単層の自己符号化器に分割し入力層から繰り返し学習させる(オ)を積層自己符号化器に適用することで,汎用的な自己符号化器の利用を可能とした.また,自己符号化器の代表的な応用例として(カ)がある.

    (ウ)に最もよくあてはまる選択肢を 1 つ選べ.

    機械学習の種類を大きく分類すると教師あり学習,教師なし学習,強化学習がある.ニューラルネットワークにもそれらに対応するものがある.例えば,教師あり学習には(ア),教師なし学習には(イ),強化学習には(ウ)などがある.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    ディープラーニングの活用を進めていく必要性の高まりに対して,日本国内においてはそうした先端 IT 技術に精通した人材不足が懸念されている. 例えば,経済産業省が定めた先端 IT 人材がどのような人材需給状況にあるかの推定によると,2020 年には需給ギャップが広がり人材の不足は (ア) に及ぶと言われている. こうした人材不足を解消するべく,様々な方法で AI に理解のある人材育成が試みられている.そのような試みの一つとして,MOOCs は期待を寄せられている.著名な例としては,AI 研究の第一人者で,2014 年から 2017 年にかけて Baidu の AI 研究所所長を務めた (イ) が創業した Coursera などは入門から上級まで様々なレベルの AI 講義が開かれており,多くの受講者を惹きつけるに至っている.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    ニューラルネットワークで用いられる活性化関数について扱う.出力層の活性化関数には,回帰では(ア)が,多クラス分類では(イ)が一般的に利用されてきた.また中間層の活性化関数として,従来は(ウ)などが一般的に利用されてきた.しかし,これらの活性化関数を利用すると勾配消失問題が起きやすいという問題があったため,近年は,入力が 0 を超えていれば入力をそのまま出力に渡し,0 未満であれば出力を 0 とする(エ)や複数の線形関数の中での最大値を利用する(オ)などが利用されている.

    (解説あり)(イ)に当てはまらない選択肢を 1 つ選べ.

    畳み込みニューラルネットワークは,畳み込み層とプーリング層を積み上げた構成をしている.画像データを用いた場合,畳み込み層では,出力画像のサイズを調整するために元の画像の周りを固定の値で埋める(ア)を行う.プーリング層では畳み込み層の出力を圧縮するプーリングを行う,(イ)などの手法がある.

    (ア)に最もよくあてはまる選択肢を 1 つ選べ.

    生成モデル(generative model)とは,訓練データからそのデータの特徴を学習し,類似したデータを生成することができるモデルである.ディープニューラルネットの生成モデル(generative model)の例として,自己符号化器の潜在変数に確率分布を導入した(ア)や,訓練データと生成器が生成したデータを識別器で判別させることによって学習を進める(イ)がある.

    (ウ)に最もよくあてはまる選択肢を 1 つ選べ.

    画像データに対しては,前処理を施すことが多い.カラー画像を白黒画像に変換して計算量を削減する(ア)や,細かいノイズの影響を除去する(イ),画素ごとの明るさをスケーリングする(ウ)などがこれに含まれる.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    活性化関数とは,ニューロンの出力に何らかの非線形な変数を加える関数である.単純パーセプトロンの出力層では(ア)が用いられ,ニューラルネットワークの中間層では,はじめ(イ)などの正規化の機能を持つ関数が好まれた.しかし現在では,誤差逆伝播で勾配が消失しやすいという問題から,中間層では勾配消失問題の影響を抑えられ,かつ簡単な(ウ)などが用いられている.また,出力層では出力の総和が 1 になるため確率的な解釈が可能になる(エ)がよく用いられる.

loading!!

loading
続きを表示する
再読み込み

ログイン / 新規登録

 

アプリをダウンロード!
DiQt

DiQt(ディクト)

無料

★★★★★★★★★★