カテゴリー
未分類

進捗5/25

ResNet50の学習

・モデルの構成
ResNet50の143 層目以降と追加した全結合層2層、BatchNormalizationを学習。
学習する層に関しては調整が必要かもしれない。

・条件
背景:黒色背景(GrabCutを用いて領域抽出済み)
桃の糖度:各側面に対応
データ数:元データ1024を拡張した10240データ
シード値:0
エポック数:48

・学習過程グラフ

・評価結果

評価関数MAERMSER
平均値1.0941
±0.0842
1.4292
±0.098
0.4423
±0.1343

バリデーションは他のモデルと同様に値が大きいが、テストデータで評価した際の標準偏差は他のモデルよりも小さかったため、EfficientNetの代わりにハイブリッドモデルに組み込んで実験してみても良いかもしれない

今後の予定

・カラー背景画像からの桃領域抽出
・カラー画像を追加して学習
・異なるモデルを用いての学習(MLP)
・VGG16の学習で起こるNaNの原因を探る

カテゴリー
未分類

進捗5/17

やったこと

・EfficientNetB3の学習・評価
・Xceptionの学習・評価

・条件
背景:黒色背景(GrabCutを用いて領域抽出済み)
桃の糖度:各側面に対応
データ数:元データ1024を拡張した10240データ
シード値:0
エポック数:48

EfficientNetB3の学習・評価

・モデルの構成
EfficientNetの上位層56 層と追加した全結合層2層、BatchNormalizationを学習。

・学習過程グラフ

・評価結果

評価関数MAERMSER
平均値1.8632
±1.6645
9.6076
±16.4205
-64.2575
±129.3921
平均値±標準偏差

Exceptionの学習・評価

・モデルの構成
Xceptionの108層以降と追加した全結合層2層、BatchNormalizationを学習。

・学習過程グラフ

・評価結果

評価関数MAERMSER
平均値1.3703
±0.0524
1.7371
±0.0632
0.178
±0.1569
平均値±標準偏差


まとめ

前回と同様、どちらも収束しなかった。
とりあえずはVGG16で起きたNaNの原因を探りつつ、ResNet50とMLPの学習を進めていく。

今後の課題

・カラー背景画像からの桃領域抽出
・カラー画像を追加して学習
・異なるモデルを用いての学習(ResNet50、MLPなど)
・VGG16の学習で起こるNaNの原因を探る

カテゴリー
未分類

進捗5/10

やったこと

・ハイブリッドモデルの学習の続き
・VGG16での学習(途中)

ハイブリッドモデルの学習の続き

前回と同じ条件で、シード値とエポック数に変更を加えて引き続き学習を行なった。

・条件
背景:黒色背景
桃の糖度:各側面に対応
データ数:元データ1024を拡張した10240データ

・元データ数が880の場合(シード値変更・エポック数変更)
シード値が1でも、48エポック以上ならシード値0と同様に精度は上がっていく。

エポック数72、シード値1の例

・元データ数が1024の場合(シード値変更・エポック数変更)
72エポックまで学習させたところ、シード値が0でも1でも、Validationが停滞する。

エポック数72、シード値0の例

VGG16での学習(途中)

・モデルの構成
64 ユニットの全結合層とBatchNormalizationと1 ユニット全結合層を追加。
上位層15 層と全結合層2 、BatchNormalization を学習。

・評価結果がNaN

とりあえずは他のモデルを実装して学習を進めつつ原因を探る。

今後の課題

・異なるモデルを用いての学習(EfficientNetB3、ResNet50、Xception、MLP)
・カラー背景画像からの桃領域抽出(REMBG試してみる)
・カラー画像を追加して学習