TensorFlow 上手
最后编辑于: 2015-11-10
简介
在几十个小时之前
TensorFlow is an Open Source Software Library for Machine Intelligence
根据其简介
TensorFlow
游戏名目
数据流图用 有向图
主要特性
说实话下面几个特性看起来很屌
- 高度灵活
可自定义数据流图和运算符, 没看出来哪里屌( ) - 真
· 可移植 在不同运算能力的平台上运行, 并且将训练好的分类器部署到移动设备和云端或, (这一点听起来真的好屌)。 - 连通研究和生产
然后产品部门的人用, 采用, 并方便了同行之间的协作和再创新, 。 这一点也好屌啊( ) - 自动微分
TensorFlow 将偏导数的计算简化了, - 编程接口
提供, 后期预计会增加, Java、 Lua、 JavaScript、 R、 。 - 性能最大化
队列和异步计算提供了”first-class support”、 号称可以自由地将计算单元部署到不同的设备, 。 屌屌屌屌屌( ) 。
开源协议
采用
为什么
Google
If TensorFlow is so great, why open source it rather than keep it proprietary?
Google
话说到这里
安装 TensorFlow
比较讨人喜欢的是
二进制安装
目前官方文档表示支持
- 直接使用
- 用
- 直接下载一个配置好的
使用
# CPU 版本
$ pip install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.5.0-cp27-none-linux_x86_64.whl
# GPU 版本 (需要 CUDA sdk)
$ pip install https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.5.0-cp27-none-linux_x86_64.whl
使用
- 首先安装依赖的
$ sudo apt-get install python-pip python-dev python-virtualenv
- 创建一个文件夹作为虚拟环境
$ mkdir tensorflow
- 为创建的文件夹配置
$ virtualenv --system-site-packages ~/tensorflow
- 激活
$ cd tensorflow && source bin/activate
- 安装
(tensorflow)$ pip install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.5.0-cp27-none-linux_x86_64.whl
注意输入deactivate
下载sudo apt-get install docker
)
$ docker run -it b.gcr.io/tensorflow/tensorflow
或者这个镜像
$ docker run -it b.gcr.io/tensorflow/tensorflow-full
后者提供了一些附加的源代码和
注意 : 亲测目前需要翻墙才能较顺利地下载
测试
打开终端运行
$ python
>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print sess.run(hello)
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print sess.run(a+b)
42
注意上面的代码已经体现出.Session()
基础使用
使用
- 将计算表示成数据流图
- 在
- 将数据表示为
- 使用变量
- 对任意的计算
正如之前所说[batch, height, width, channels]
tensorflow::Tensor
可以看出
构建数据流图
TensorFlow
import tensorflow as tf
matrix1 = tf.constant([[3., 3.]])
matrix2 = tf.constant([[2.],[2.]])
product = tf.matmul(matrix1, matrix2)
上面的代码首先创建一个 常量matrix1
matrix2
product
matrix1
matrix2
注意
部署节点
构建完成数据流图后
sess = tf.Session()
result = sess.run(product)
print result
sess.close()
上面的代码首先加载默认数据流图.run()
product
matrix1
matrix2
.close()
和with...as...
with tf.Session() as sess:
result = sess.run([product])
print result
当具有多个处理单元时with...Device
with tf.Session() as sess:
with tf.device("/gpu:1"):
matrix1 = tf.constant([[3., 3.]])
matrix2 = tf.constant([[2.],[2.]])
product = tf.matmul(matrix1, matrix2)
...
一般/cpu:0
/gpu:0
/gpu:1
交互运行
用过.eval()
InteractiveSession
# Enter an interactive TensorFlow Session.
import tensorflow as tf
sess = tf.InteractiveSession()
x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])
# Initialize 'x' using the run() method of its initializer op.
x.initializer.run()
# Add an op to subtact 'a' from 'x'. Run it and print the result
sub = tf.sub(x, a)
print sub.eval()
# ==> [-2. -1.]
变量
Tensors
state = tf.Variable(0, name="counter")
one = tf.constant(1)
new_value = tf.add(state, one)
update = tf.assign(state, new_value)
init_op = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init_op)
print sess.run(state)
for _ in range(3):
sess.run(update)
print sess.run(state)
所谓维护状态state
init_op
for
update
update
state
new_value
state
new_value
new_value
state
one
state
因为变量保存现场的特性
Fetches(抓取节点输出)
之前我们用.run()
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermed = tf.add(input2, input3)
mul = tf.mul(input1, intermed)
with tf.Session():
result = sess.run([mul, intermed])
print result
# output:
# [array([ 21.], dtype=float32), array([ 7.], dtype=float32)]
Feeds(给节点输入数据)
之前介绍的操作都没有涉及到给节点输入数据placeholder
input1 = tf.placeholder(tf.types.float32)
input2 = tf.placeholder(tf.types.float32)
output = tf.mul(input1, input2)
with tf.Session() as sess:
print sess.run([output], feed_dict={input1:[7.], input2:[2.]})
# output:
# [array([ 14.], dtype=float32)]
然后呢?
因为
其中
手感
接触
- 文档健全
除了官方的文档页, 到, 讲得很详细, 对初学者还专门提供了教程, 非常友好, ; - 接口友好
使用很直观;, - 工具先进
比如, - 思想超前;
- 期待其进一步开源!