2021-07-16から1日間の記事一覧

ラビットチャレンジ【深層学習day2】~最新のCNN~

概要 CNNは現在でも様々な改良モデルが研究・開発されている 最新のモデルがどのような構造であるかを把握することは大切である この章では以下の項目を学んだ ・ILSVRC(appendix) ・AlexNet ・GoogLeNet(appendix) ・VGGNet(appendix) ・ResNet(appendix) I…

ラビットチャレンジ【深層学習day2】~畳み込みニューラルネットワークの概念~

概要 畳み込みニューラルネットワーク(以下、CNN)は顔認識で使用されている CNNは通常のNNではないような機能をもったレイヤーがある この章では以下の項目を学んだ ・CNNの構造 ・畳み込み層 ・パティング ・ストライド ・チャンネル ・プーリング層(確認テ…

ラビットチャレンジ【深層学習day2】~過学習~

概要 過学習は深層学習において重要な問題である。過学習が起きている状態では未知のデータに精度よく予測することができない 過学習を防止するまでに様々な方法がある この章では以下の項目を学んだ ・過学習の基礎 ・正則化(確認テスト2つ含む) ・例題チャ…

ラビットチャレンジ【深層学習day2】~学習率最適化手法~

概要 パラメータを出来るだけ早く、より正確に終わらせるために様々な方法な方法が考案されている 重みを調整する方法や学習率を調整する方法がある この章では以下の項目を学んだ ・モメンタム ・AdaGrad ・RMSProp ・Adam(確認テストを1つ含む) ・ハンズオ…

ラビットチャレンジ【深層学習day2】~勾配消失問題~

概要 勾配消失問題は深層学習において重要な問題である。 その問題を解決するために活性化関数、初期値の設定やバッチ正規化などがある この章では以下の項目を学んだ ・勾配消失問題の基礎(確認テスト1つ含む) ・活性化関数(確認テスト1つ含む) ・初期値の…

ラビットチャレンジ【深層学習day1】~誤差逆伝播法~

概要 パラメータの更新氏は誤差逆伝播が用いられる この章では以下の項目を学んだ ・誤差逆伝播の計算方法 ・ハンズオン 誤差逆伝播の計算方法 誤差逆伝播とは算出された誤差を出力層側から順に微分し、前の層前の層へ伝播する 誤差逆伝播のイメージ 最小限…

ラビットチャレンジ【深層学習day1】~勾配降下法~

概要 NNにおけるパラメータ(w,b)を最適化することが目標である 最小化する様々な方法がある またディープラーニングはパラメータを計算するために多量の計算が必要であるため開発環境が重要となる ・勾配降下法(確認テスト1つ含む) ・学習率、収束性向上のた…

ラビットチャレンジ【深層学習day1】~出力層~

概要 NNにおいて出力層は最終層となり、中間層のから受け取った値を人間が欲しい値に変換する また予測した値はと正解を比較されて誤差関数としてパラメータの学習に使用される 出力層では、中間層の活性化関数とは異なる活性化関数も使用されている この章…

ラビットチャレンジ【深層学習day1】~活性化関数~

概要 活性化関数はNNにおいて重要な項目である 活性化関数によってモデルの表現を持たせることができる 活性化関数は様々なものが使用されているが、構築するNNによって使用する活性化関数も違ってくる 活性化関数の効果で一部の出力は弱く、一部は強く伝播…

ラビットチャレンジ【深層学習day1】~入力層・中間層~

概要 ニューラルネットワーク(以下、NN)は人間の脳を模倣したネットワークである NNは入力層、中間層、出力層からなり、中間層を多くして、パラメータを調整することでより複雑なタスクに対応することができる NNでは以下のような回帰問題、分類問題に対応で…