徹底攻略ディープラーニングE資格エンジニア問題集

徹底攻略ディープラーニングE資格エンジニア問題集

6,050円(本体 5,500円+税10%)

品種名
書籍
発売日
2020/9/4
ページ数
520
サイズ
A5判
著者
スキルアップAI株式会社 小縣 信也、斉藤 翔汰、溝口 聡、若杉 和幸 著
ISBN
9784295009184

AIエンジニア必携の「E資格」を徹底攻略!

AIエンジニアは必携の資格【ディープラーニングE資格(エンジニア)】にいち早く対応!◆JDLA認定プログラムの第1号事業者であるスキルアップAIの講師陣が執筆!◆業界の第一人者 杉山 将氏(理化学研究所 革新知能統合研究センター センター長/東京大学 教授)監修◆ていねいで分かりやすく解説。正答も誤答も技術解説しているので知識吸収も加速!◆出題傾向を徹底分析した模擬問題を収録で合格力がさらにアップ!

「読者アンケートに答える」「読者プレゼントに応募」の場合もこちらをご利用ください。

アンケートに答える

書籍の内容に関するお問い合わせはこちら。お答えできるのは本書に記載の内容に関することに限ります。

学校・法人一括購入に関するお問い合わせはこちらへ。

一括購入窓口

著者紹介

小縣 信也(おがた・しんや)
スキルアップAI講師。スキルアップAI株式会社取締役。大阪市立大学工学部卒業後、建材メーカー、設備設計事務所に勤務。2010年、OpenFOAM勉強会for beginner(現オープンCAE勉強会@関東)を立ち上げ3年間幹事を務める。建築環境に関する数値シミュレーション、電力量や温湿度などのセンサーデータに関する分析が専門。1級建築士、エネルギー管理士。2013年、国土交通省国土技術政策総合研究所 優秀技術者賞受賞。日本ディープラーニング協会が実施するE資格2020#1ほか合格、E資格2018にて優秀賞受賞、E資格2019#1にて優秀賞受賞。

斉藤 翔汰(さいとう・しょうた)
スキルアップAI講師。横浜国立大学大学院 環境情報学府 情報メディア環境学専攻(現:情報環境専攻)修了。修士(情報学)。高専時代に画像認識に対して興味を持ったことがきっかけで、現在は深層学習や機械学習、進化計算などの人工知能分野におけるアルゴリズムの研究開発やコンサルティングに従事。日本ディープラーニング協会が実施するE資格2020#1ほか合格、G検定2020年#1ほか合格。

溝口 聡(みぞぐち・さとし)
スキルアップAI講師。東京大学工学部計数工学科卒業。東京大学大学院情報理工学系研究科システム情報学専攻修了。修士(情報理工学)。学生時代に数理統計学と統計的信号処理に触れたことがきっかけで、深層学習や高次統計量分析を利用した音声強調技術の研究開発や画像処理などを含む機械学習コンサルティングに従事。日本ディープラーニング協会が実施するE資格2020#1ほか合格、G検定2019年#1合格。実用数学技能検定1級。統計検定1級、統計応用(理工学)成績優秀賞受賞。

若杉 一幸(わかすぎ・かずゆき)
スキルアップAI講師。東京工業大学電気電子工学科を卒業後、同大学院総合理工学研究科創造エネルギー専攻を修了。修士(工学)。大学卒業後は機械メーカにてパワーエレクトロニクスや情報・制御に関する研究開発に従事し、その後機械学習を活用した予測システムの開発や多数のデータ分析業務に従事。2010年電気学会産業応用部門で優秀論文発表賞受賞。日本ディープラーニング協会が実施するE資格2018にて優秀賞受賞、G検定2018年#1合格。

■監修
杉山 将(すぎやま・まさし)
2001年東京工業大学大学院情報理工学研究科博士課程修了。博士(工学)。2014年より東京大学大学院新領域創成科学研究科教授、2016年より理化学研究所革新知能統合研究センター長を兼任。機械学習の理論・アルゴリズム・実世界応用に関する研究に従事。2015年に機械学習に関する国際会議Neural Information Processing Systems Conferenceの共同委員長プログラム委員長、2016年に共同実行委員長を務める。『機械学習プロフェッショナルシリーズ』(講談社)編者。

目次

第01章 線形代数
第02章 確率・統計
第03章 情報理論
第04章 機械学習の基礎
第05章 前処理・特徴選択・性能指標
第06章 モデルの評価・正則化・ハイパーパラメータ探索
第07章 教師あり学習の各種アルゴリズム
第08章 教師なし学習の各種アルゴリズム
第09章 強化学習の各種アルゴリズム
第10章 深層学習の概要
第11章 順伝播計算と逆伝播計算
第12章 最適化手法
第13章 畳み込みニューラルネットワーク
第14章 再帰型ニューラルネットワーク
第15章 深層学習を用いた自然言語処理
第16章 深層学習を用いた生成モデル
第17章 深層学習を用いた強化学習
第18章 開発・運用環境
第19章 総仕上げ問題
付録 覚えておくべきPython/NumPyの知識

関連書籍

好評発売中

徹底攻略ディープラーニングG検定ジェネラリスト問題集 第3版

最新シラバス・出題方式に対応して改訂!

好評発売中

徹底攻略 JSTQB Foundation教科書&問題集 シラバス2023対応

好評発売中

イモヅル式 情報Ⅰ 必修キーワード総仕上げ

必須用語を関連付けてどんどん覚えられる!

ダウンロード

お詫びと訂正

誤記のためにご迷惑をおかけし、誠に申し訳ございません。

  • 22ページ 解答2の解説(上から4行目)
    • [誤]
      λ(λ+1) (λ+1) = 0
    • [正]
      λ(λ+1) (λ-2) = 0
    • 【 第2刷にて修正 】
  • 23ページ 解答4の解説(2行目)
    • [誤]
      AT Aの固有値の正の平方根が並びます。
    • [正]
      A ATの固有値の正の平方根が並びます。
    • 【 第2刷にて修正 】
  • 23ページ 解答4の解説(上の式)
    • [誤]
      AT A=
    • [正]
      A AT=
    • 【 第2刷にて修正 】
  • 23ページ 解答4の解説(下の式)
    • [誤]
      det (λI − A⊺ A)=
    • [正]
      det (λI − A A⊺)=
    • 【 第2刷にて修正 】
  • 24ページ 解答5の(ア)(イ)の正解
    • [誤]
      ア(C)、イ(F)
    • [正]
      ア(F)、イ(C)
    • 【 第2刷にて修正 】
  • 24ページ 解答5の(ア)(イ)の解説
    • [誤]
      これを降順に並べれば(ア)は1、(イ)は√5 です(ア=C、イ=F)。
    • [正]
      これを降順に並べれば(ア)は√5、(イ)は1 です(ア=F、イ=C)。
    • 【 第2刷にて修正 】
  • 24ページ 解答5の解説(2行目)
    • [誤]
      AT Aの固有値の正の平方根が降順(大きい順)に並びます。
    • [正]
      A ATの固有値の正の平方根が降順(大きい順)に並びます。
    • 【 第2刷にて修正 】
  • 24ページ 解答5の解説(上の式)
    • [誤]
      AT A=
    • [正]
      A AT=
    • 【 第2刷にて修正 】
  • 24ページ 解答5の解説(下の式)
    • [誤]
      det (λI − A⊺ A)=
    • [正]
      det (λI − A A⊺)=
    • 【 第2刷にて修正 】
  • 24ページ 解答5の解説(下から2行目)
    • [誤]
      固有ベクトルu=(( )ux,uy)T 
    • [正]
      固有ベクトルu=(ux,uy)T 
    • 【 第2刷にて修正 】
  • 24ページ 解答5の解説(下から2行目)
    • [誤]
      ※下記を参照
    • [正]
    • 備考:

      【誤】Uの第一列はATAの固有値5に~

      【正】Uの第一列はAATの固有値5に~

    • 【 第2刷にて修正 】
  • 26ページ 解答7の8行目の式
    • [誤]
      ※下図を参照
    • [正]
    • 【 第2刷にて修正 】
  • 46ページ 問題5(上から8行目)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 47ページ 問題6の(イ)の選択肢
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 54ページ 解答5の【参考】
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 54ページ 解答6(下から4行目の式)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 69ページ 問題2の選択肢A
    • [誤]
      データに欠損が見られるため線形補完を実施した
    • [正]
      データに欠損が見られるため線形補間を実施した
    • 【 第2刷にて修正 】
  • 73ページ 解答1の選択肢Cの解説(上から7~9行目)
    • [誤]
      これをダウンサンプリングといいます。よって、選択肢Cは適切な記述です。なお、ダウンサンプリングの反対の操作として、
    • [正]
      これをアンダーサンプリングといいます。よって、選択肢Cは適切な記述です。なお、アンダーサンプリングの反対の操作として、
    • 【 第2刷にて修正 】
  • 80ページ 解答5(上から3行目の式)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 99ページ 問題2(ウ)の選択肢Aの式
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 107ページ 解答2の解説(上から8行目)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 107ページ 解答2の解説(一番目の式)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 109ページ 解答3の解説【負の対数尤度の偏導関数】の1行目
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 126ページ 解答2の解説(コードの5行目)
    • [誤]
      idx = np.random.permutation(n data)[:k]
    • [正]
      idx = np.random.permutation(n_data)[:k]
    • 【 第2刷にて修正 】
  • 131ページ 解答5の解説(上から3~6行目)
    • [誤]
      このとき、変数lのshapeは(次元数, )、変数vのshapeは(次元数, 次元数)となっており、それぞれ第0次元は固有ベクトルの本数を意味します。また変数vの第1次元は固有ベクトルの次元数であり、入力データと固有ベクトルの内積を取ることで新たな変数を作成します。そのため、v[:, i]とし、各固有ベクトルの第i次元の値を確認することで、新たな変数について第i次元がどれだけ寄与しているかをチェックできます。
    • [正]
      このとき、変数lのshapeは(次元数, )、変数vのshapeは(次元数, 次元数)となっており、lの第0次元とvの第1次元は固有ベクトルの本数を意味します。入力データとvの各列の内積を取ることで、新たな変数が生成されます。
    • 【 第3刷にて修正 】
  • 181ページ 問題5の問題文(下から9行目)
    • [誤]
      損失関数L(x, g(f(x))
    • [正]
      損失関数L(x, g(f(x)))
    • 【 第2刷にて修正 】
  • 181ページ 問題5の問題文(下から7行目)
    • [誤]
      雑音除去符号化器は、単に入力を復元するのではなく、
    • [正]
      雑音除去自己符号化器は、単に入力を復元するのではなく、
    • 【 第2刷にて修正 】
  • 201ページ 問1のコード(42~45行)
    • [誤]
      self.v[key] *= self.momentum
      self.v[key] -= self.lr * grads[key]
      params[key] += ( ウ )
      params[key] -= ( エ )
    • [正]
      params[key] += ( ウ )
      params[key] -= ( エ )
      self.v[key] *= self.momentum
      self.v[key] -= self.lr * grads[key]
    • 【 第3刷にて修正 】
  • 216ページ 解答1の解説のコード(42~45行)
    • [誤]
      self.v[key] *= self.momentum
      self.v[key] -= self.lr * grads[key]
      params[key] += self.momentum *
              self.momentum * self.v[key]
      params[key] -= (1 + self.momentum) *
              self.lr * grads[key]
    • [正]
      params[key] += self.momentum *
              self.momentum * self.v[key]
      params[key] -= (1 + self.momentum) *
              self.lr * grads[key]
      self.v[key] *= self.momentum
      self.v[key] -= self.lr * grads[key]
    • 【 第3刷にて修正 】
  • 243ページ 問題9の問題文(下から7行目)
    • [誤]
      負例(物体)
    • [正]
      負例(背景)
    • 【 第2刷にて修正 】
  • 254ページ 解答2の解説(下から2行目)
    • [誤]
      col_Wは(FN, C×FH×FW)の行列になります。
    • [正]
      col_Wは(C×FH×FW, FN)の行列になります。
    • 【 第3刷にて修正 】
  • 262ページ 解答6の解説本文下から6行目
    • [誤]
      ある再現率rに対応する適合率は、そのrよりも大きな適合率…
    • [正]
      ある再現率rに対応する適合率は、そのrよりも大きな再現率…
    • 【 第3刷にて修正 】
  • 265ページ 解答8の解説(本文の下から4~3行目)
    • [誤]
      したがって、入力層に近い特徴マップは大きな物体の検出に適しており、出力層に近い特徴マップは小さな物体の検出に適しているといえます。
    • [正]
      したがって、出力層に近い特徴マップは大きな物体の検出に適しており、入力層に近い特徴マップは小さな物体の検出に適しているといえます。
    • 【 第3刷にて修正 】
  • 268ページ 解答10の(ウ)(エ)の正解
    • [誤]
      ウ(C)、エ(A)
    • [正]
      ウ(A)、エ(C)
    • 【 第2刷にて修正 】
  • 268ページ 解答10の解説(一番下の式の右)
    • [誤]
      | Strue ∩ Spred |
    • [正]
      | Strue ∪ Spred |
    • 【 第2刷にて修正 】
  • 269ページ 解答10の解説(下の2つの式の後の解答)
    • [誤]
      ウ=C
      エ=A
    • [正]
      エ=C
      ウ=A
    • 【 第2刷にて修正 】
  • 279ページ 問題4の問題文(下から2~1行目)
    • [誤]
      また、ゲートの値を決める以外の活性化関数は恒等写像関数とする。
    • [正]
      ※上記の1文を削除
    • 【 第2刷にて修正 】
  • 280ページ 問題4のスクリプトの30行目
    • [誤]
      h_next = o * c_next
    • [正]
      h_next = o * np.tanh (c_next)
    • 【 第2刷にて修正 】
  • 292ページ 解答2の解説(下から2行目)
    • [誤]
      A2に∂L/∂y2は含まれません。
    • [正]
      A2に∂L/∂h2は含まれません。
    • 【 第2刷にて修正 】
  • 298ページ 解答4のスクリプトの30行目
    • [誤]
      h_next = o * c_next
    • [正]
      h_next = o * np.tanh (c_next)
    • 【 第2刷にて修正 】
  • 299ページ 解答4の解説(上から15行目)
    • [誤]
      Wx = [Wx(r) , Wx(r) , Wx(˜h)] 、Wh = [Wx(r) , Wh(z) , Wh(˜h)]
    • [正]
      Wx = [Wx(r) , Wx(z) , Wx(˜h)] 、Wh = [Wh(r) , Wh(z) , Wh(˜h)]
    • 【 第2刷にて修正 】
  • 299ページ 解答4の解説(下から6行目)
    • [誤]
      ※下図を参照
    • [正]
    • 【 第2刷にて修正 】
  • 353ページ 解答1の9行目
    • [誤]
      ※下図を参照
    • [正]
    • 【 第2刷にて修正 】
  • 356ページ 解答3の解説(下から2行目)
    • [誤]
      乱数zが従う確率密度分布~
    • [正]
      乱数zが従う確率分布~
    • 【 第3刷にて修正 】
  • 357ページ 解答3の解説(上から7行目)
    • [誤]
      GANの目的関数は微積分の順序交換を許せば、
    • [正]
      GANの目的関数は、
    • 【 第3刷にて修正 】
  • 357ページ 解答3の解説(ページ中ほど)
    • [誤]
      で得られます。これにより、
    • [正]
      で得られます。微積分の順序交換を許せば、期待値操作と微分操作を入れ替えることができ、
    • 【 第3刷にて修正 】
  • 359ページ 解答3の解説(上から7行目)
    • [誤]
      確率密度分布PG(x)へ~
    • [正]
      確率分布PG(x)へ~
    • 【 第3刷にて修正 】
  • 359ページ 解答3の解説(上の数式の下)
    • [誤]
      その際、最適な識別器の出力は解説と同様の議論により、
    • [正]
      その際、最適な識別器の出力は、
    • 【 第3刷にて修正 】
  • 359ページ 解答3の上の数式の3行目
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 359ページ 脚注
    • [誤]
      下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 368ページ 問題2のエの選択肢D
    • [誤]
      ※下図を参照
    • [正]
    • 【 第2刷にて修正 】
  • 451ページ 解答8の解説本文上から9行目
    • [誤]
      k-means++では、以下のAlgorithm1に沿って実装が行われています。
    • [正]
      k-meansおよびk-means++では、以下のAlgorithm1に沿って処理が行われます。
    • 【 第3刷にて修正 】
  • 451ページ 解答8の解説 中央
    • [誤]
      [Algorithm 1 : k-means]
    • [正]
      [Algorithm 1 : k-means および k-means++]
    • 【 第3刷にて修正 】
  • 452ページ 解答8の解説(本文の上から4行目)
    • [誤]
      np.random.select()は、配列内部の~
    • [正]
      np.random.select()という関数は存在しません。なお、np.select()は、配列内部の~
    • 【 第2刷にて修正 】
  • 452ページ 解答8の解説本文上から1行目
    • [誤]
      Algorithm1の1行目に対応します。
    • [正]
      Algorithm2の1行目に対応します。
    • 【 第3刷にて修正 】
  • 452ページ 解答8の解説本文上から9行目
    • [誤]
      Algorithm1の5行目に対応します。
    • [正]
      Algorithm2の5行目に対応します。
    • 【 第3刷にて修正 】
  • 458ページ 解答14のページ中ほどの数式
    • [誤]
      ※下図を参照
    • [正]
    • 【 第3刷にて修正 】
  • 506ページ ページ下部のコード7行目のS
    • [誤]
      a = np.random.choice(S, 10)
    • [正]
      a = np.random.choice(s, 10)
    • 【 第3刷にて修正 】
  • 506ページ ページ下部のコード9行目のA
    • [誤]
      print(A)
    • [正]
      print(a)
    • 【 第3刷にて修正 】

お問い合わせ

書籍の内容に関するお問い合わせはこちら。お答えできるのは本書に記載の内容に関することに限ります。

お問い合わせフォーム