小象学院《自然语言处理》第二期

资源简介

英国布里斯托(Bristo)大学
硕士、博士。美国加州大学伯克
利分校( UC Berkeley)博士后、
牛津(Oxford)大学与卡内基梅隆
大学(CMU)访问学者。目前主
要研究方向为数据挖掘、跨媒体
检索与自然语言理解。出版英文

PS:注意课程有点老,不建议作为主课看。

《小象学院《自然语言处理》第二期》

资源目录

——/计算机教程/09-其他/213-小象学院《自然语言处理》第二期/
├──01-第1章:自然语言与数学之美  
|   ├──1.1 课程简介及推荐书目.flv  9.91M
|   ├──1.10 凸集合和凸函数.flv  6.51M
|   ├──1.2 NLP的研究领域及应用.flv  12.59M
|   ├──1.3 自然语言的6个重要术语.flv  6.07M
|   ├──1.4 语言学的发展史 1.flv  27.07M
|   ├──1.5 语言学的发展史 2.flv  19.80M
|   ├──1.6 语言学的发展史 3.flv  24.63M
|   ├──1.7 函数.flv  8.97M
|   ├──1.8 向量与向量的模.flv  11.48M
|   └──1.9 矩阵和矩阵运算.flv  11.88M
├──02-第2章:基于机器学习方法的自然语言处理  
|   ├──2.1 主观概率和客观概率.flv  8.11M
|   ├──2.10 辛普森悖论和贝叶斯概率解题实例.flv  21.80M
|   ├──2.2 概率模型与条件概率.flv  12.63M
|   ├──2.3 贝叶斯原理与推理.flv  18.30M
|   ├──2.4 随机变量:二项式概率.flv  15.09M
|   ├──2.5 随机变量:期望与方差.flv  10.85M
|   ├──2.6 随机变量:联合概率.flv  3.33M
|   ├──2.7 伯努利分布和二项式分布.flv  12.97M
|   ├──2.8 多项式分布、伽玛分布和Beta分布.flv  9.12M
|   └──2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv  11.25M
├──03-第三章:1、2章答疑  
|   └──第一周答疑.flv  85.58M
├──04-第四章:自然语言  
|   ├──3.1 语言的进化:来自自然选择的社会协作.flv  20.40M
|   ├──3.2 语言的进化:语言游戏与摩斯密码.flv  13.31M
|   ├──3.3 语言与智能:信息熵.flv  15.22M
|   ├──3.4 语言与智能:交叉熵的定义.flv  21.51M
|   ├──3.5 语义的进化.flv  20.31M
|   ├──3.6 语言模型:语言概率.flv  7.07M
|   ├──3.7 词袋模型.flv  10.35M
|   └──3.8 二元语言模型:CR情感分析.flv  27.54M
├──05-第5章:语言模型和中文分词  
|   ├──4.1 三元语言模型.flv  18.06M
|   ├──4.10 N-Gram模型.flv  3.34M
|   ├──4.11 Optimal Path 最优路径模型.flv  1.56M
|   ├──4.12 中文分词工具:Jieba.flv  8.40M
|   ├──4.2 语言模型评价:交叉熵.flv  8.43M
|   ├──4.3 语言模型评价:Perplexity(困惑度).flv  9.47M
|   ├──4.4 语言评价模型:Interpolation(插值法).flv  5.13M
|   ├──4.5 概率模型:垃圾邮件分类.flv  17.99M
|   ├──4.6 概率模型:拼写检查.flv  29.38M
|   ├──4.7 语音模型和机器翻译模型.flv  5.43M
|   ├──4.8 中文构词法.flv  13.87M
|   └──4.9 最大化匹配.flv  3.25M
├──06-第6章:第二周答疑  
|   └──第二周答疑.flv  140.36M
├──07-第7章:语言技术-词表达和Word2Vec  
|   ├──5.1 词表达.flv  6.30M
|   ├──5.10 Word2Vec-Part 3.flv  23.82M
|   ├──5.2 语义相似度.flv  12.01M
|   ├──5.3 TF-IDF权重处理.flv  5.17M
|   ├──5.4 One-Hot表达.flv  5.28M
|   ├──5.5 神经网络基础.flv  15.30M
|   ├──5.6 神经网络:反向传播 1.flv  9.05M
|   ├──5.7 神经网络:反向传播 2.flv  19.26M
|   ├──5.8 Word2Vec-Part 1.flv  21.52M
|   └──5.9 Word2Vec-Part 2.flv  25.45M
├──08-第8章:语言技术-词性  
|   ├──6.1 什么是词性标注(POS Tagging).flv  7.61M
|   ├──6.10 混合模型详解5:隐马尔科夫模型.flv  21.36M
|   ├──6.2 词性标注的方法.flv  7.21M
|   ├──6.3 词性的标注类别和标注集.flv  9.38M
|   ├──6.4 规则标注和N-Gram方法.flv  6.02M
|   ├──6.5 从混合模型到HMM.flv  14.31M
|   ├──6.6 混合模型详解1:EM模型.flv  32.65M
|   ├──6.7 混合模型详解2:EM模型.flv  22.88M
|   ├──6.8 混合模型详解3:高斯混合模型.flv  16.78M
|   └──6.9 混合模型详解4:隐马尔可夫模型.flv  21.71M
├──09-第9章:第三周答疑  
|   └──第三周答疑.flv  28.43M
├──10-第10章:语言技术-概率图模型  
|   ├──7.1 概率图模型:贝叶斯网络(有向无环图).flv  8.31M
|   ├──7.2 概率图模型:分层图模型.flv  4.04M
|   ├──7.3 概率图模型:隐马尔科夫链.flv  3.68M
|   ├──7.4 隐马尔可夫模型的推导 1.flv  25.84M
|   ├──7.5 隐马尔科夫模型的推导 2.flv  25.88M
|   ├──7.6 隐马尔科夫模型的推导 3.flv  33.31M
|   ├──7.7 隐马尔科夫模型的推导 4.flv  29.12M
|   ├──7.8 PLSA主题模型1.flv  11.97M
|   └──7.9 PLSA主题模型 2.flv  11.25M
├──11-第11章:语言技术-文本与LDA主题模型  
|   ├──8.1 向量表达和潜在语义索引(LSI).flv  6.56M
|   ├──8.10 实验报告:文本语义相似度.flv  5.83M
|   ├──8.11 延展实验:主题模型引入字词关系的实现.flv  15.36M
|   ├──8.12 实验总结.flv  5.26M
|   ├──8.2 LDA和狄利克雷分布.flv  17.13M
|   ├──8.3 LDA主题模型.flv  24.67M
|   ├──8.4 主题模型的深化与对比.flv  18.30M
|   ├──8.5 语义距离(Semantic Distance).flv  6.84M
|   ├──8.6 中文LDA模型:Word-base 和 Character-Base.flv  6.91M
|   ├──8.7 实验报告:困惑度(Perplexity).flv  3.48M
|   ├──8.8 实验报告:文本分类准确度.flv  8.13M
|   └──8.9 中英双语料库实验.flv  3.45M
├──12-第12章:第四周答疑  
|   └──第四周答疑.flv  51.72M
├──13-第13章:语言技术-句法  
|   ├──9.1 上下文无关句法(CFG)-Part 1.flv  31.42M
|   ├──9.2 上下文无关句法(CFG)-Part 2.flv  30.86M
|   ├──9.3 概率上下文无关句法(PCFG)- Part 1.flv  59.30M
|   ├──9.4 概率上下文无关句法(PCFG)-Part 2.flv  31.32M
|   └──9.5 概率上下文无关句法(PCGF)-Part 3.flv  43.95M
├──14-第14章:机器翻译  
|   ├──10.1 机器翻译(Machine Translation)-Part 1.flv  15.03M
|   ├──10.2 机器翻译(Machine Translation)-Part 2.flv  18.25M
|   ├──10.3 机器翻译(Machine Translation)-Part 3.flv  37.06M
|   ├──10.4 机器翻译(Machine Translation)-Part 4.flv  26.51M
|   ├──10.5 机器翻译(Machine Translation)-Part 5.flv  34.76M
|   └──10.6 机器翻译(Machine Translation)-Part 6.flv  39.90M
├──15-第15章:第五周答疑  
|   └──第五周答疑.flv  30.24M
├──16-第16章:卷积神经网络CNN  
|   ├──11.1 神经元.flv  5.54M
|   ├──11.2 全连接网络及特性.flv  15.85M
|   ├──11.3 Auto-Encode 自编码器.flv  6.02M
|   ├──11.4 反向传播(BP).flv  33.44M
|   ├──11.5 卷积神经网络(CNN)的理解.flv  7.40M
|   ├──11.6 CNN的基本原理:卷积核、权重和池化.flv  11.27M
|   ├──11.7 CNN的计算过程.flv  13.47M
|   └──11.8 CNN如何应用在自然语言处理中.flv  15.92M
├──17-第17章:循环神经网络RNN  
|   ├──12.1 循环神经网络的基本原理.flv  18.03M
|   ├──12.2 Elman Network和Jordan Networ.flv  2.64M
|   ├──12.3 LSTM的核心思想.flv  11.45M
|   ├──12.4 LSTM的分步实现详解.flv  17.15M
|   ├──12.5 Encoder-Decoder 框架.flv  15.26M
|   ├──12.6 Seq2Seq 模型.flv  24.49M
|   └──12.7 注意力机制(Attention Mechanism).flv  17.27M
├──18-第18章:第六周答疑  
|   └──第六周答疑.flv  23.31M
├──19-第19章:注意力机制  
|   ├──13.1 注意力机制产生的背景回顾.flv  20.67M
|   ├──13.2 注意力模型的实现原理.flv  7.57M
|   ├──13.3 注意力模型的应用领域.flv  8.75M
|   ├──13.4 记忆网络(Memory Network)的组成.flv  18.61M
|   ├──13.5 记忆网络的计算过程和实现方法.flv  22.62M
|   ├──13.6 匹配函数(Match Function).flv  5.52M
|   ├──13.7 注意力模型的延展1:Neural Programmer.flv  6.54M
|   └──13.8 注意力模型的延展2:神经图灵机.flv  27.65M
├──20-第20章:广义模型(Universal Transformer)  
|   ├──14.1 UT的典型结构:Stack of Encoder and Decoder.flv  7.16M
|   ├──14.2 Self-Attention的计算.flv  17.08M
|   ├──14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv  8.81M
|   ├──14.4 位置编码(Positional Encoding).flv  4.51M
|   ├──14.5 层泛化(Lay Normalization).flv  7.00M
|   ├──14.6 Softmax Layer:交叉熵和损失函数的计算.flv  10.85M
|   ├──14.7 ACT模型(Adaptive Computation Time).flv  25.35M
|   └──14.8 Universal Transformer 的完整实现流程.flv  9.90M
├──21-第21章:第七周答疑  
|   └──第七周答疑.flv  17.61M
├──22-第22章:自然语言研究的未来方向  
|   ├──15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv  6.61M
|   ├──15.2 语义关系计算与知识库.flv  17.11M
|   ├──15.3 知识库推理学习:Neural Tensor Network.flv  21.51M
|   ├──15.4 跨媒体信息搜索:CMIR.flv  13.73M
|   ├──15.5 文本图卷积网络(Text GCN).flv  39.91M
|   └──15.6 NLP未来的探索方向.flv  15.40M
└──资料  
|   ├──01第一课:自然语言与数学之美.pdf  2.48M
|   ├──02第二课:基于机器学习方法的自然语言处理.pdf  3.54M
|   ├──03第三课:自然语言.pdf  2.83M
|   ├──03第三课资料 1.pdf  3.55M
|   ├──03第三课资料 2.pdf  142.06kb
|   ├──03第三课资料 3.pdf  362.29kb
|   ├──04第四课:语言模型.pdf  1.05M
|   ├──04第四课资料.pdf  1.01M
|   ├──05第五课课件.pdf  2.77M
|   ├──06第六课课件.pdf  1.06M
|   ├──07第七课课件.pdf  1.61M
|   ├──第7课 note.pdf  732.79kb
|   ├──第六课 Note.pdf  1.26M
|   ├──第十三课 课件.pdf  14.26M
|   └──第十一课:循环神经网络.pdf  6.19M

资源下载

抱歉,只有登录并在本文发表评论才能阅读隐藏内容,切记不要恶意刷,否则会被限制,先阅读用户规则,一旦进入黑名单,不可能再放出来。同时注意,暂停在线支付,请联系客服QQ2441105221。
  1. 莉莉丝~说道:

    学习一下

  2. 小味说道:

    学习一下

  3. 轮山靓仔说道:

    学习理论

  4. benbenlitian说道:

    学习一下

  5. 树下啃面包说道:

    感谢分享

  6. HahaX说道:

    学习

  7. lua说道:

    学习一下

  8. ujhalf说道:

    学习一下

  9. overtime说道:

    感谢分享

  10. bob2021说道:

    感谢分享

  11. aipowerup说道:

    老的也温习下,谢谢分享。

  12. Amphetaminimum说道:

    学习一下

  13. Alugg说道:

    学习一些

  14. 枫哈哈说道:

    学习一下

  15. 说道:

    自然语言 :smile:

  16. hyolin说道:

    不容错过

  17. 路人甲说道:

    学习一下

  18. tylrr说道:

    谢谢分享

  19. tomcat说道:

    学习一下

  20. sangbu说道:

    学习一下

发表回复