书籍目录
前言
你正在阅读的项目可能会比 Android 系统更加深远地影响着世界!
缘起
内容来源
参与者(按认领章节排序)
翻译
校对
进度记录
花絮
持续改进
感谢支持
离线版本
Tex-PDF 修订版
目录
第 1 章 起步
简介
推荐随后阅读:
下载与安装
二进制安装
Ubuntu/Linux
Mac OS X
基于 Docker 的安装
其它镜像
基于 VirtualEnv 的安装
尝试你的第一个 TensorFlow 程序
(可选) 启用 GPU 支持
运行 TensorFlow
从源码安装
克隆 TensorFlow 仓库
Linux 安装
安装 Bazel
安装其他依赖
可选: 安装 CUDA (在 Linux 上开启 GPU 支持)
下载并安装 Cuda Toolkit 7.0
下载并安装 CUDNN Toolkit 6.5
配置 TensorFlow 的 Cuba 选项
编译目标程序, 开启 GPU 支持
已知问题
Mac OS X 安装
Bazel
SWIG
Numpy
创建 pip 包并安装
训练你的第一个 TensorFlow 神经网络模型
常见问题
GPU 相关问题
在 Linux 上
在 Mac OS X 上
基本使用
综述
计算图
构建图
在一个会话中启动图
交互式使用
Tensor
变量
Fetch
Feed
第 2 章 教程
综述
面向机器学习初学者的 MNIST 初级教程
面向机器学习专家的 MNIST 高级教程
TensorFlow 使用指南
卷积神经网络
单词的向量表示
循环神经网络 (Recurrent Neural Network, 简称 RNN)
序列到序列模型 (Sequence-to-Sequence Model)
Mandelbrot 集合
偏微分方程
MNIST 数据下载
视觉物体识别 (Visual Object Recognition)
Deep Dream 视幻觉软件
MNIST机器学习入门
MNIST数据集
Softmax回归介绍
实现回归模型
训练模型
评估我们的模型
深入MNIST
安装
加载MNIST数据
运行TensorFlow的InteractiveSession
计算图
构建Softmax 回归模型
占位符
变量
类别预测与损失函数
训练模型
评估模型
构建一个多层卷积网络
权重初始化
卷积和池化
第一层卷积
第二层卷积
密集连接层
Dropout
输出层
训练和评估模型
TensorFlow运作方式入门
教程使用的文件
准备数据
下载
输入与占位符(Inputs and Placeholders)
构建图表 (Build the Graph)
推理(Inference)
损失(Loss)
训练
训练模型
图表
会话
训练循环
向图表提供反馈
检查状态
状态可视化
保存检查点(checkpoint)
评估模型
构建评估图表(Eval Graph)
评估图表的输出(Eval Output)
卷积神经网络
概述
目标
本教程的重点
模型架构
代码组织
CIFAR-10 模型
模型输入
模型预测
模型训练
开始执行并训练模型
评估模型
在多个GPU板卡上训练模型
在多个设备中设置变量和操作
启动并在多个GPU上训练模型
下一步
Vector Representations of Words
亮点
动机: 为什么需要学习 Word Embeddings?
处理噪声对比训练
Skip-gram 模型
建立图形
训练模型
嵌套学习结果可视化
嵌套学习的评估: 类比推理
优化实现
总结
递归神经网络
介绍
语言模型
教程文件
下载及准备数据
模型
LSTM
截断反向传播
输入
损失函数
多个 LSTM 层堆叠
编译并运行代码
除此之外?
曼德布洛特(Mandelbrot)集合
基本步骤
会话(session)和变量(variable)初始化
定义并运行计算
偏微分方程
基本设置
定义计算函数
定义偏微分方程
开始仿真
MNIST 数据下载
教程 文件
准备数据
下载
解压 与 重构
数据集 对象
第 3 章 运作方式
综述 Overview
Variables: 创建,初始化,保存,和恢复
TensorFlow 机制 101
TensorBoard: 学习过程的可视化
TensorBoard: 图的可视化
数据读入
线程和队列
添加新的 Op
自定义数据的 Readers
使用 GPUs
共享变量 Sharing Variables
变量:创建、初始化、保存和加载
创建
初始化
由另一个变量初始化
自定义初始化
保存和加载
检查点文件
保存变量
恢复变量
选择存储和恢复哪些变量
TensorBoard:可视化学习
数据序列化
启动TensorBoard
TensorBoard: 图表可视化
名称域(Name scoping)和节点(Node)
交互
数据读取
目录
数据读取
供给数据
从文件读取数据
文件名, 乱序(shuffling), 和最大训练迭代数(epoch limits)
文件格式
CSV 文件
固定长度的记录
标准TensorFlow格式
预处理
批处理
创建线程并使用QueueRunner对象来预取
疑问: 这是怎么回事?
疑问: 在达到最大训练迭代数的时候如何清理关闭线程?
筛选记录或产生每个记录的多个样本
稀疏输入数据
预取数据
多输入管道
线程和队列
队列使用概述
Coordinator
QueueRunner
异常处理
增加一个新 Op
内容
增加一个新 Op
定义 Op 的接口
为 Op 实现 kernel
生成客户端包装器
Python Op 包装器
C++ Op 包装器
检查 Op 能否正常工作
验证条件
Op 注册
属性
属性类型
默认值和约束条件
多态
Type Polymorphism
列表输入和输出
输入和输出
向后兼容性
GPU 支持
使用 Python 实现梯度
在 Python 中实现一个形状函数
自定义数据读取
主要内容
自定义数据读取
编写一个文件格式读写器
编写一个记录格式Op
使用 GPUs
支持的设备
记录设备指派情况
手工指派设备
在多GPU系统里使用单一GPU
使用多个 GPU
共享变量
问题
变量作用域实例
变量作用域是怎么工作的?
理解 tf.get_variable()
tf.variable_scope() 基础
获取变量作用域
变量作用域中的初始化器
在tf.variable_scope()中ops的名称
使用实例
第 4 章 资源
其他资源
TensorFlow 白皮书
引用
社区
讨论
报告 Issues
开发
BibTex 引用
应用实例
常见问题
内容
常见问题
建立 TensorFlow graph
为什么c = tf.matmul(a, b) 不立即执行矩阵相乘?
设备是如何命名的?
如何在指定的设备上运行操作(operations)?
可用的 tensor 有哪些不同的类型?
运行 TensorFlow 计算过程。
请详细解释 feeding 和 placeholders?
Session.run() 和 Tensor.eval() 有什么区别?
Sessions 有生存期吗? 调用时产生的 tensors 呢?
我可以在多个计算机上运行分布式的训练吗?
运行时会并行计算图的执行的各个部分(parts of graph execution)吗?
TensorFlow 支持哪些客户端编程语言?
TensorFlow 会利用我计算机上所有可用的设备(GPUs 和 CPUs)吗?
当使用一个 reader 或 一个 queue 时,为什么 Session.run() 会挂起?
Variables
变量的生存期是?
并发读取或存入变量时会是什么情况?
Tensor shapes
在 Python 中我怎么判断一个 tensor 的 shape ?
x.set_shape() 和 x = tf.reshape(x) 有什么区别?
我怎么创建这样一个 graph ,它在批次大小可变(variable batch sizes)的情形下也可以正常运作?
TensorBoard
我怎样视觉化一个 TensorFlow graph ?
向 TensorBoard 发送数据的最简单的方法是什么?
扩展 TensorFlow
我的数据是自定义格式,要怎样用 TensorFlow 来读取它?
我如何定义操作(operation)使得它能够接受可变数量的输入?
其他问题
TensorFlow 能使用 Python 3 吗?
TensorFlow 的代码风格有什么规则?
术语表
广播操作(Broadcasting operation)
Devices
eval
Feed
Fetch
Graph(图)
IndexedSlices(索引化切片)
Node(节点)
操作(Op/operation)
Run
Session(会话)
Shape
SparseTensor
Tensor
张量的阶、形状、数据类型
阶
形状
数据类型
第 5 章 其他
常见问题汇总
说明
常见问题及解答
(示例)官网地址是哪里?
如何安装 pip ?
docker run -it b.gcr.io/tensorflow/tensorflow 失败
TensorFlow 相关资源
TensorFlow 个人学习心得
没有回复内容