11/19 進捗報告

今週は数種類のパターンで学習を行っていました。
(batch_size : 16, train : 7660枚, test : 3284枚)

  1. EfficientNet B2
  2. Xception (FineTuning, float)
  3. Xception (FineTuning, uint)
  4. Vgg16 (FineTuning)

以上の4パターンで学習を行いました。
以下が学習結果です。

  1. EfficientNet B2
efficient_loss
efficient_mae

2. Xception ( 糖度データ 小数値 )

xception_loss
xception_mae

4. Vgg16

vgg16_loss
vgg16_mae

今まで指標にしていたMAEだけで見るとVGG16かXceptionが良いと思われます。

一部残していたデータを用いて精度検証を行いました。
MSEとMAE、決定係数 R2 を算出しました。

No.NameMAEMSER2
1EfficientNet B23.04912.171-3.316191625399121
2Xception
(float32)
2.0925.918-1.0984957912248525
3Xceptiom
(uint8)
1.53.661-0.24255871847602561
4Vgg161.6374.470-0.585332572479959

R2を算出したところ、マイナス値になってしまっており、結構悪いと思われます。
糖度データを四捨五入して学習した時の方が精度が良いため、他のモデルでも試してみたいと思います。

次の予定としては、学習回数がまだまだ少ないため、VGG16モデルでの学習を続けるとともに、新たに桃部分のヒストグラムを入力値としたモデルを作成し、マルチモーダル、アンサンブルを行ってみようかなと思っています。

また、損失関数を自作(RMSE)に変えたところ、学習時間が同一モデルで1epochあたり2時間から1時間半に減りました。
GoogleColabの同時実行可能なノートブックが最高2つ(GPU, TPU ひとつずつ)だったため、複数モデルの学習が同時並行できそうです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です