(34)【PyTorchでMNIST #5】学習済みパラメータファイルを指定可能にする。
【1】やりたいこと 前回の投稿 (33)【PyTorchでMNIST #4】プログラムの保守性を向上させる。 で残件となっていた 学習済みパラメータファイルのコマンドライン指定 を実装したい。 これにより、複数の実行結果… 続きを読む »
【1】やりたいこと 前回の投稿 (33)【PyTorchでMNIST #4】プログラムの保守性を向上させる。 で残件となっていた 学習済みパラメータファイルのコマンドライン指定 を実装したい。 これにより、複数の実行結果… 続きを読む »
【1】やりたいこと 前回の投稿 (32)【PyTorchでMNIST #3】理解の助けになるミニマム実装 で実装したプログラムを改良したい。 目的は、 ・プログラムを部品化し、再利用性を上げること。 ・ネットワーク構成の… 続きを読む »
(9) cuda-convnetを試してみる のトレーニング結果をレポート表示させてみます。 これも cuda-convnet が提供している機能です。 1. cost functionの出力値 [user@linux]… 続きを読む »
NVIDIA GTX-650の載った Linuxマシンがあるので cuda-convnet なる GPU実装版 NeuralNetプログラムを動かしてみる。ホームページはこちら(↓) https://code.googl… 続きを読む »
1. sigmoidの代わりにtanh 活性化関数は sigmoid の他に tanh も使用するらしい。 分類タスクで使う活性化関数は、入力値に対して出力値が一定範囲内に制限されるならば、どんな関数でもよいらしい。 両… 続きを読む »
1. 実験内容 下記投稿のシンプル構成初版では、1EPOCHで 90%前後の正解率だった。 (4) シンプル構成の初版は正解率91% 今回は EPOCH数を増やして正解率の向上を目論む。 対象は、シンプル構成初版の実験で… 続きを読む »
1. プログラムの仕様 ニューラルネットワークの入門書に載っている普通のシンプルなネットワーク構成で実装してみた。 プログラムの仕様は以下の通り。 (1) MNIST画像データ60,000枚を学習 (2) MNISTテス… 続きを読む »