10/29 進捗報告

引き続き学習を行っています。
以前は画像を一気に読み込んだ後に学習を行っていましたが、
バッチサイズごとに画像を読み込む方法に切り替えたことでクラッシュやエラーが起きなくなりましたが、GPUメモリ25GBのうちの90%ほどを使い切ってしまうため、他の方法も検討中です。

上の方法で学習を行うと以前見つけたData Augmentationライブラリ( Albumentations )をうまく使えないため、とりあえずはKerasに組み込まれているImageDataGeneratorを用いて水増しし、学習をしていく予定です。

10/15 進捗報告

糖度のデータに不備があったため、改めて学習をしています。

画像をGoogle Driveから読み出すのではなく、Google Colabのインスタンス上に画像をコピーしてから読み出すことでクラッシュの頻度が減りました。

中間発表までに学習をある程度終え、精度検証を行いたいと思います。

10/8 進捗報告

学習を続けています。
lossが3~4程度だと推定値が小数点第3位ぐらいしか差がない状態です

画像の量やサイズが大きいとGoogleColab上のGPU最上位モデルでもクラッシュしてしまうことがあるため、画像のサイズと量の調整などをしていきたいと思います。
また、画像の読み込み時間が長かったり、1epochあたり15分以上かかるので相当時間がかかりそうです。

https://qiita.com/hirune924/items/bfb099a704537b4e22ca

画像読み込みとData Augmentationに関しては上記の記事を参考にして高速化を図ってもいいのかなと思っています。

10/1 進捗報告

推定値が大きな値になってしまう原因はテストデータ(画像)の値を0から1に正規化せずに推定を行っていたという単純な理由でした。

原因を知らず新たにVgg19を再学習させていました。
その後、正規化をし上記のモデルで推定をすると9.75…という小数点3位以下の値が変わる程度の推定値になりました。

学習データの量が足りないのでデータを増やし、学習を行っています。