G検定模擬試験set1
(解説あり)ディープラーニングの利活用は各産業で進められているが,それが実際にディープラーニングによるブレイクスルーによってもたらされたものであるのかどうかの認識が曖昧な場合も少なくない.
選択肢のうち,ディープラーニングの産業への利活用事例として適切でないものを 1 つ選べ.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
全ての欠損値が完全に生じている場合には,様々な手法を使ってこれに対処することができる.1 つは欠損があるサンプルをそのまま削除してしまう (ア) である.これは欠損に偏りがあった場合には,データ全体の傾向を大きく変えてしまうことになるので使用する際には欠損に特定の偏りがないかを確認して使用することが肝要である. 他の事例としては,欠損しているある特徴量と相関が強い他の特徴量が存在している場合は,(イ) という方法もある.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
全ての欠損値が完全に生じている場合には,様々な手法を使ってこれに対処することができる.1 つは欠損があるサンプルをそのまま削除してしまう (ア) である.これは欠損に偏りがあった場合には,データ全体の傾向を大きく変えてしまうことになるので使用する際には欠損に特定の偏りがないかを確認して使用することが肝要である. 他の事例としては,欠損しているある特徴量と相関が強い他の特徴量が存在している場合は,(イ) という方法もある.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
機械学習による分析を行う際,カテゴリーデータをそのまま扱うのは非常に難しい.このため,これを数値に変換して扱いやすくすることが一般的である. ドリンクのサイズ S, M, L などの順序を持つ文字列のカテゴリーデータの場合,それぞれの値に対応する数値を辞書型データで用意し,これを数値に変化する方法 (ア) を利用して変換を行うことがある. また順序を持たない名義特徴量のカテゴリーデータについては,各変数に対応したダミー変数を新たに作り出す (イ) が有用である.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
機械学習による分析を行う際,カテゴリーデータをそのまま扱うのは非常に難しい.このため,これを数値に変換して扱いやすくすることが一般的である. ドリンクのサイズ S, M, L などの順序を持つ文字列のカテゴリーデータの場合,それぞれの値に対応する数値を辞書型データで用意し,これを数値に変化する方法 (ア) を利用して変換を行うことがある. また順序を持たない名義特徴量のカテゴリーデータについては,各変数に対応したダミー変数を新たに作り出す (イ) が有用である.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
既存の学習済みニューラルネットワークモデルを活用する手法に(ア)と(イ)がある.(ア)では,学習済みモデルに対して新たに別の課題を学習させることで,少量のデータセットかつ少ない計算量で高い性能のモデルを得ることができる.また,(イ)は,学習済みの大規模モデルの入力と出力を小規模なモデルの教師データとして利用することで,少ない計算資源で従来のモデルと同程度の性能を実現することが可能となる.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
既存の学習済みニューラルネットワークモデルを活用する手法に(ア)と(イ)がある.(ア)では,学習済みモデルに対して新たに別の課題を学習させることで,少量のデータセットかつ少ない計算量で高い性能のモデルを得ることができる.また,(イ)は,学習済みの大規模モデルの入力と出力を小規模なモデルの教師データとして利用することで,少ない計算資源で従来のモデルと同程度の性能を実現することが可能となる.
(ア)に最もよくあてはまる選択肢を 1 つ選べ.
畳み込みニューラルネットワークの手法について扱う.(ア)は 1998 年に提案された,現在広く使われている CNN の元となるモデルであり,初めて多層 CNN に誤差逆伝播法を適用した手法である.2012 年に提案された(イ)は,画像認識のコンペティション ILSVRC で他手法に圧倒的な差をつけて優勝し,画像認識におけるディープラーニング活用の火付け役となった.しかし,一般に CNN は層を深くすると,パラメータ数が膨大となり学習が困難になってしまう傾向があった.層が深くなってもうまく学習を行うことができるモデルとして,ILSVRC2015 において多くの部門でトップの成績を収めた(ウ)がある.(ウ)は出力を入力と入力からの差分の和で表現したニューラルネットワークモデルである.
(イ)に最もよくあてはまる選択肢を 1 つ選べ.
畳み込みニューラルネットワークの手法について扱う.(ア)は 1998 年に提案された,現在広く使われている CNN の元となるモデルであり,初めて多層 CNN に誤差逆伝播法を適用した手法である.2012 年に提案された(イ)は,画像認識のコンペティション ILSVRC で他手法に圧倒的な差をつけて優勝し,画像認識におけるディープラーニング活用の火付け役となった.しかし,一般に CNN は層を深くすると,パラメータ数が膨大となり学習が困難になってしまう傾向があった.層が深くなってもうまく学習を行うことができるモデルとして,ILSVRC2015 において多くの部門でトップの成績を収めた(ウ)がある.(ウ)は出力を入力と入力からの差分の和で表現したニューラルネットワークモデルである.
(ウ)に最もよくあてはまる選択肢を 1 つ選べ.
畳み込みニューラルネットワークの手法について扱う.(ア)は 1998 年に提案された,現在広く使われている CNN の元となるモデルであり,初めて多層 CNN に誤差逆伝播法を適用した手法である.2012 年に提案された(イ)は,画像認識のコンペティション ILSVRC で他手法に圧倒的な差をつけて優勝し,画像認識におけるディープラーニング活用の火付け役となった.しかし,一般に CNN は層を深くすると,パラメータ数が膨大となり学習が困難になってしまう傾向があった.層が深くなってもうまく学習を行うことができるモデルとして,ILSVRC2015 において多くの部門でトップの成績を収めた(ウ)がある.(ウ)は出力を入力と入力からの差分の和で表現したニューラルネットワークモデルである.