人工智能从入门到进阶,机器之心高分技术文章全集

机器之心原创

作者:吴攀、蒋思源

新的一年到来了,过去的 2016 年可以说是有史以来机器学习领域进展最显著的一年。在大数据和高性能计算设备的助力下,具备学习能力的机器在围棋、语音识别、翻译、图像渲染和识别等许多领域都实现了惊人的成就。但那远远还不是这一领域的终点,大部分媒体和投资者仍然还看好以机器学习为主的人工智能技术的未来发展,市场也无法掩饰地表现出了对这方面的人才的需求。

这篇文章尽可能地全面地梳理了机器之心在 2016 年发过的基础知识和技术指导方面的文章,希望能为读者通往人工智能领域的专业人才乃至学界大牛之路提供一点助力。本文按照从基础到前沿划分对文章进行了分类(学习资源、基础介绍文章、技术起点、继续进阶、前沿研究),读者可方便地根据自己的学习进度选择合适的文章阅读。

一、学习资源

 

深度学习资料大全:从基础到各种网络

30个深度学习库:按Python和C++等10种语言分类

2016年不可错过的21个深度学习视频、教程和课程

程序员实用深度学习免费课程:从入门到实践 

9本不容错过的深度学习和神经网络书籍 

深度学习专业名词表:从激活函数到word2vec 

2016年年度十大Python库盘点

2010-2016年被引用次数最多的深度学习论文 

自学数据科学&机器学习,19个数学和统计学公开课推荐 

Yoshua Bengio新书《Deep Learning》中文版开放预览(附PDF下载链接) 

数据科学家应该掌握的12种机器学习算法(附信息图) 

从入门到研究,人工智能领域最值得一读的20份资料

关于数据科学的十本好书 

哈佛大学九大自然语言处理开源项目 

ICML 2016演讲视频:数百个演讲带你读懂机器学习 

Yoshua Bengio研究生科研指导演讲:解读人工智能全貌和下一个前沿 

Yann LeCun演讲:人工智能的下一个前沿——无监督学习 

今年GitHub排名前20的Python机器学习开源项目

机器学习工程师和数据科学家最应该读的16本书 

任何阶段的学习者都适用的参考:机器学习领域书目全集 

Yoshua Bengio深度学习暑期班学习总结,35个授课视频全部开放

Andrej Karpathy CS294课程总结:可视化和理解深度神经网络 

Geoffrey Hinton最新演讲梳理:从人工神经网络到RNN应用

吴恩达NIPS 2016演讲现场直击:如何使用深度学习开发人工智能应用

NIPS 2016最全盘点:主题详解、前沿论文及下载资源

斯坦福大学周末学习盛宴:12位大牛解读深度学习

提升深度学习模型的表现,你需要这20个技巧 

TensorFlow开源一周年:这可能是一份最完整的盘点 

五大主流深度学习框架比较分析:MXNET是最好选择 

二、基础介绍文章

 

2016伦敦深度学习峰会观感:人工智能面临的三大难题

2016机器学习与自然语言处理学术全景图:卡耐基梅隆大学排名第一 

2016年美国机器人路线图出炉,最新机器人产业盘点 

一张图看懂全球Bot布局 

Yoshua Bengio:深度学习崛起带来人工智能的春天 

神经网络架构演进史:全面回顾从LeNet5到ENet十余种架构

Andrej Karpathy:计算机科学博士的生存指南 

贝叶斯神经网络简史

百度首席科学家吴恩达刊文:人工智能的能力和不足 

高盛百页人工智能生态报告:美国仍是主导力量,中国正高速成长

伯克利教授Stuart Russell:人工智能基础概念与34个误区

初学者必读:解读14个深度学习关键词

智能时代每个人都应该了解:什么是深度学习? 

CMU机器学习系负责人:人工智能与人类的未来是共生自主 

CMU教授邢波:人工智能的路径、方向与未来 

从供应链优化到差异化定价:机器学习十种方式变革制造业 

对比深度学习十大框架:TensorFlow最流行但并不是最好 

当AI遇上AR ——从微软HPU说起 

洞悉AlphaGo超越围棋大师的力量:机器之心邀你一起强化学习

东南大学漆桂林教授:知识图谱不仅是一项技术,更是一项工程 

人工智能全局概览:通用智能的当前困境和未来可能 

访谈百度IDL林元庆:百度大脑如何在人脸识别上战胜人类「最强大脑」 

TensorFlow 生态系统:与多种开源框架的融合 

Kaggle创始人问答:深度学习会淘汰其他的机器学习方法吗? 

机器之心年度盘点 | 从技术角度,回顾2016年语音识别的发展

机器学习的基本局限性:从一个数学脑筋急转弯说起 

人们都在说人工智能,其实现在我们真正做的是智能增强

人工智能、机器学习、深度学习,三者之间的同心圆关系 

R vs Python:R是现在最好的数据科学语言吗? 

斯坦福NLP团队介绍交互式语言学习:从语言游戏到日程规划 

斯坦福大学副教授Reza Zadeh:神经网络越深就越难优化

神经网络和深度学习简史(三):强化学习与递归神经网络 

神经网络和深度学习简史(四):深度学习终迎伟大复兴 

深度学习技术在股票交易上的应用研究调查 

深度学习十大飙升趋势 

深度学习入门,以及它在物联网和智慧城市中的角色

服务器端人工智能,FPGA和GPU到底谁更强? 

Science「机器人子刊」创刊号,五大研究解读机器人领域最新进展 

西红柿还是猕猴桃?一个案例帮你入门机器学习

详细解读神经网络十大误解,再也不会弄错它的工作原理 

基于图的机器学习技术:谷歌众多产品和服务背后的智能 

三、技术起点

 

10种深度学习算法的TensorFlow实现

数十种TensorFlow实现案例汇集:代码+笔记 

机器学习入门必备:如何用Python从头实现感知器算法

ACM 最新月刊文章:强化学习的复兴

人工智能开发者的入门指南

从入门到精通:卷积神经网络初学者指南

机器学习敲门砖:任何人都能看懂的TensorFlow介绍 

DeepMind提出的可微神经计算机架构的TensorFlow实现 

RNN 怎么用?给初学者的小教程

深度学习教程:从感知器到深层网络

OpenAI 的 PixelCNN++实现:基于 Python的实现 

Geoffrey Hinton最新演讲梳理:从人工神经网络到RNN应用

官方指南:如何通过玩TensorFlow来理解神经网络 

一篇文章带你进入无监督学习:从基本概念到四种实现模型 

NIPS 2016上22篇论文的实现汇集 

机器学习初学者入门实践:怎样轻松创造高精度分类网络 

解决真实世界问题:如何在不平衡类上使用机器学习? 

卷积神经网络架构详解:它与神经网络有何不同? 

LSTM和递归网络基础教程

门外汉如何使用谷歌的Prediction API做机器学习 

NVIDIA趣味解读:深度学习训练和推理有何不同? 

如何利用 Python 打造一款简易版 AlphaGo 

如何用图像识别技术来变革商业?这里有份操作指南 

MIT生成视频模型,预测静态图片的未来场景 

EMNLP 2016干货:从原理到代码全面剖析可用于NLP的神经网络

使用机器学习翻译语言:神经网络和seq2seq为何效果非凡? 

神经网络快速入门:什么是多层感知器和反向传播?

神经网络中激活函数的作用 

逐层剖析,谷歌机器翻译突破背后的神经网络架构是怎样的?

深度学习漫游指南:强化学习概览

深度学习与神经网络全局概览:核心技术的发展历程 

最全的深度学习硬件指南 

主流深度学习框架对比:看你最适合哪一款? 

四、继续进阶

 

40年认知架构研究概览:实现通用人工智能的道路上我们已走了多远?

第四范式联合创始人陈雨强:机器学习在工业应用中的新思考 

词嵌入系列博客Part1:基于语言建模的词嵌入模型 

词嵌入系列博客Part2:比较语言建模中近似 softmax 的几种方法

词嵌入系列博客Part3:word2vec 的秘密配方 

从分割到识别,全面解析Facebook开源的3款机器视觉工具 

从硬件到软件:OpenAI 解读自家的深度学习基础架构 

分布式深度学习:神经网络的分布式训练

Embedding 新框架模型:Exponential Family Embeddings 

FPGA vs. ASIC,谁将引领移动端人工智能潮流? 

概述性论文:卷积神经网络的近期研究进展 

《Nature》 封面文章:人工智能引发材料科学变革 

概述论文:迁移学习研究全貌 

Andrej Karpathy:你为什么应该理解反向传播 

GAN之父NIPS 2016演讲现场直击:全方位解读生成对抗网络的原理及未来

Google Brain 讲解注意力模型和增强RNN 

谷歌Magenta项目是如何教神经网络编写音乐的? 

基于MXNet 的神经机器翻译实现 

2016深度学习重大进展:从无监督学习到生成对抗网络

深度学习遇上基因组,诊断疾病和揭示深层生物原理或迎来突破 

King+Woman-Man=Queen:用基于Spark的机器学习来捕捉词意

初学者必读:从迭代的五个层面理解机器学习 

轻量级Matlab深度学习框架LightNet的实现 

如何基于机器学习设计一套智能交易系统? 

如何在TensorFlow中用深度学习修复图像? 

机器学习中的并行计算:GPU、CUDA和实际应用 

深度解读AlphaGo胜利背后的力量:强化学习

英伟达自动驾驶技术解读:用于自动驾驶汽车的端到端深度学习 

深度解读最流行的优化算法:梯度下降 

Science:斯坦福大学用迁移学习预测非洲贫困状况 

用 Word2vec 轻松处理新金融风控场景中的文本类数据 

Science:实用量子计算机已近在咫尺 

深度学习硬件架构简述

深度学习系列Part2:迁移学习和微调深度卷积神经网络 

图文并茂的神经网络架构大盘点:从基本原理到衍生关系 

为你的深度学习任务挑选性价比最高GPU 

详解谷歌神经网络图像压缩技术:高质量地将图像压缩得更小 

用于视觉任务的CNN为何能在听觉任务上取得成功? 

自然语言处理领域深度学习研究总结:从基本概念到前沿成果 

专访谷歌Jeff Dean:强化学习适合的任务与产品化应用

重磅论文:解析深度卷积神经网络的14种设计模式

五、前沿研究

 

并行运算,Facebook提出门控卷积神经网络的语言建模 

FAIR与微软研究院合著论文:通过虚拟问答衡量机器智能 

FusionNet融合三个卷积网络:识别对象从二维升级到三维 

谷歌新论文提出神经符号机:使用弱监督在Freebase上学习语义解析器 

Google Brain与OpenAI合作论文:规模化的对抗机器学习 

谷歌新论文:使用生成对抗网络的无监督像素级域适应 

谷歌ICLR 2017论文提出超大规模的神经网络:稀疏门控专家混合层 

谷歌论文:使用循环神经网络的全分辨率图像压缩 

谷歌新论文提出适应性生成对抗网络AdaGAN:增强生成模型 

谷歌技术论文:用于YouTube推荐的深度神经网络 

谷歌与微软合著论文:由知识引导的结构化注意网络 

谷歌深度解读:机器人可以如何通过共享经历学习新技能 

谷歌NIPS 2016提交的8篇论文:从无监督学习到生成模型 

谷歌DeepMind论文:使用合成梯度的解耦神经接口 

谷歌提交ICLR 2017论文:学习记忆罕见事件 

谷歌提出深度概率编程语言Edward:融合了贝叶斯、深度学习和概率编程 

谷歌新论文提出预测器架构:端到端的学习与规划 

DeepMind最新论文:线性时间的神经机器翻译 

DeepMind David Silver论文:学习跨多个数量级的值 

DeepMind论文:在线Segment to Segment神经传导

DeepMind深度解读Nature论文:可微神经计算机 

DeepMind论文:调控运动控制器的学习和迁移 

DeepMind NIPS 2016论文盘点(Part1):强化学习正大步向前 

DeepMind NIPS 2016论文盘点(Part2):无监督学习的新进展 

ECCV 2016 最佳论文新鲜出炉 

Geoffrey Hinton论文:使用快速权重处理最近的过去

哈工大讯飞联合实验室最新论文刷新机器阅读理解纪录 

华盛顿大学论文:使用机器学习分析科学文献中的视觉信息 

Ian Goodfellow 论文:通过视频预测的用于物理交互的无监督学习 

Ian Goodfellow 论文:用于隐私训练数据的深度学习的半监督知识迁移

IBM论文:多尺度循环神经网络在对话生成中的应用 

ICLR2016会议,不可错过Facebook提交的七篇论文 

计算机科学领导者:卡内基梅隆大学ACL2016论文汇总 

论文:TensorFlow,一个大规模机器学习系统 

论文:通过连续奖励策略梯度学习在线比对 

论文:基准评测当前最先进的深度学习软件工具 

论文:一种用于训练循环网络的新算法Professor Forcing

论文:高斯混合模型的似然方法中的局部极大值:结构结果和算法结果

NIPS 2016现场:谷歌发布 28 篇机器学习论文 

Nature论文:无监督表征学习,用电子健康病历增强临床决策 

Nature论文:从不确定性表征到自动建模 

NIPS 2016 公布571篇接收论文 

OpenAI与NASA论文:用于张拉整体机器人运动的深度强化学习 

OpenAI论文:神经GPU的扩展和限制 

苹果发布第一篇人工智能研究论文:模拟+无监督方法改善合成图像 

商汤科技论文解析:人脸检测中级联卷积神经网络的联合训练 

斯坦福大学李飞飞最新论文:弱监督动作标记的连接时序模型 

Vicarious在ICLR2017提交无监督学习论文:层级组合特征学习 

Yann LeCun论文:基于能量的生成对抗网络 

Yoshua Bengio 论文:一种神经知识语言模型 

Yann LeCun提交ICLR 2017论文汇总:从GAN到循环实体网络等 

Bengio论文:用于序列预测的actor-critic算法 

Yoshua Bengio论文:迈向生物学上可信的深度学习 

Yoshua Bengio论文:使用线性分类器探头理解中间层 

Yoshua Bengio论文:Mollifying Networks

微软重磅论文提出LightRNN:高效利用内存和计算的循环神经网络 

微软ACL 2016论文汇集,自然语言技术逼近人类对话水平 

自然语言顶级会议ACL 2016谷歌论文汇集