在今年1月份期间曾简单翻译了一篇关于Attention机制的文章Attention Model注意力机制。虽然,翻译了这篇文章,但由于当时对RNN、Seq2Seq等知识只处于初步了解阶段,对Attention机制总感觉是一知半解。虽然很努力的去看各种资料,但还是感觉不能够理解。经过最近一段时间的学习,对RNN、Seq2Seq有了一定的理解且进行了一定的实践,再阅读Attention相关的论文和博客就感觉不是那么吃力了,现在对最近学习的Attention机制相关的知识进行简单地总结。
CNN for NLP
最近一段时间一直在学习CNN在NLP方面的应用,主要是学习如何利用CNN解决NLP的传统任务,如文本分类、句子相似度计算等。在此期间阅读了一些论文和博客,在此系统整理一下,以便加强理解。
自然语言处理基础-句法分析
本文主要是对宗成庆老师《自然语言理解》讲义,第9章的一个学习笔记,同时,也参考了刘群老师《计算语言学》的句法分析讲义,所有的配图均来自这两个讲义。通过该讲义能够对句法分析是做什么的以及怎么做,有一个基本的认识。
自然语言处理基础-中文分词
自然语言处理基础-条件随机场(Conditional Random Fields,CRFs)学习笔记
本篇笔记来自李航老师的《统计学习方法》一书
条件随机场最早由Lafferty等人2001年提出,其模型思想的主要来源是最大熵模型,模型的三个基本问题的解决用到了HMMs模型中的方法如forward-backward和Viterbi。我们可以把条件随机场看成是一个无向图模型或马尔科夫随机场,它是一种用来标记和切分序列化数据的统计模型。