Neural Network ? 1 にTensorBoardのモニタ解析を追記しておく。 今回は、name_scope()を用いて、Nameスペースを有効に設定しいたことで、グラフ構造が整理されて解りやすくなった。 隠
Programming
TensorFlow #Neural Network – 1
MNISTの手書き数字画像で、Neural Networkのアルゴリズムをチェックする。 入力層、隠れ層3層、出力層を含む5層構造であり、最も単純な方法をチェックする:
TensorFlow #Session, Variable, & Placeholder ?
TensorFlowの解りにくいところ、Session()の挙動、VariableとPlaceholderの使い分け ———————
TensorFlow #Global Step
前回、説明せずに使ってしまったStepについて、少し確認しておく。 ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー TensorFlowでBatchの各段階はステップStepと呼ばれ、global_step
TensorFlow #Regression
これまでのTensorFlowのキーポイントで、だいたい基本的なアルゴリズムを理解して、アレンジすることができるであろう。 そこで、まずは、単純なLinear Regressionを書いてみる。 Placeholderの
TensorFlow #Optimizer
MLのTrainingに欠かせないOptimizerクラスについて、整理しておこう。 —————————R
TensorFlow #TensorBoard
TensorFlowを強力にも、複雑にもしているのが解析サマリー出力のTensorBoardであろう。 サマリーは、TensorBoardとして、デフォルトではローカルホストのウェブ上に、URL: http://loca
TensorFlow #Log
TensorFlowでは、print命令を使って、標準出力にデータを記載できるが、tf.logging packageを用いれば、5つのログレベル(DEBUG, INFO, WARN, ERROR, FATAL)を含めた
TensorFlow #Graph
TensorFlowで、Session()で動かすプログラム構造は、Graphである。Graphクラスについて、簡単に整理しておく。 デフォルトグラフの指定は、以下のようになる。
TensorFlow #Session
TensorFlowのプログラミングは、今までのPythonのプログラミングのスタイルと大きく異なる点がある。Apache SparkののScalaと同様に、分散処理、メモリの有効活用等を考慮に入れた遅延実行型のスタイル