Tensorflowをあらためてやってみた。
あらためてTensorflowをやってみた。以前より理解は進んでいる気がする。
#coding:UTF-8 import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) import tensorflow as tf ## 画像は28*28ピクセル = 784ピクセル ## この画像から0,...,9という番号を判断したい。 # 入力変数定義 float32型で、(None, 784)の2階のテンソルを作る。 x = tf.placeholder(tf.float32, [None, 784]) # 重み 初期値ゼロで(784,10)の2階のテンソルを作る。 W = tf.Variable(tf.zeros([784, 10])) # バイアス 初期値0で(10)の1階のテンソルをつくる b = tf.Variable(tf.zeros([10])) # ソフトマックス活性化関数 y = tf.nn.softmax(tf.matmul(x, W) + b) # 正解 right_answer = tf.placeholder(tf.float32, [None, 10]) # クロスエントロピーの定義 (最小二乗法でも良かったが) cross_entropy = -tf.reduce_sum(right_answer*tf.log(y)) # 勾配降下法で重みを調整する # 学習比率 0.01 train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) #初期化 init = tf.initialize_all_variables() sess = tf.Session() sess.run(init) # 学習中 for i in range(1000): # データを取得 1回で100個のデータ(バッチ)を持ってくる batch_xs, batch_ys = mnist.train.next_batch(100) # ステップを実行 sess.run(train_step, feed_dict={x: batch_xs, right_answer: batch_ys}) ## 結果表示 ## # それぞれの分布から最も確率の高いもの同士を見比べ同じであるかを調べる。 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(right_answer,1)) # 正答率を計算する。 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) # 精度表示 print(sess.run(accuracy, feed_dict={x: mnist.test.images, right_answer: mnist.test.labels}))