自然语言处理(综述)

                     

贡献者: 待更新

   本文根据 CC-BY-SA 协议转载翻译自维基百科相关文章

   自然语言处理(NLP)是计算机科学的一个子领域,特别是人工智能领域。它主要关注赋予计算机处理自然语言编码的数据的能力,因此与信息检索、知识表示和计算语言学(语言学的一个子领域)密切相关。通常,数据通过文本语料库收集,并使用基于规则、统计方法或基于神经网络的机器学习和深度学习方法进行处理。

   自然语言处理的主要任务包括语音识别、文本分类、自然语言理解和自然语言生成。

1. 历史

   更多信息:自然语言处理的历史 自然语言处理的根源可以追溯到 20 世纪 50 年代。[1] 早在 1950 年,阿兰·图灵就发表了一篇名为《计算机器与智能》的文章,提出了现在被称为图灵测试的智能标准,尽管当时这并没有被表述为一个与人工智能分开的问题。该测试提议包括一个任务,涉及自动化地解释和生成自然语言。

符号化自然语言处理(1950 年代 – 1990 年代初)

   符号化自然语言处理的前提可以通过约翰·塞尔的 “中文房间” 实验来简明总结:给定一组规则(例如,一本中文短语手册,包含问题及其对应的答案),计算机通过应用这些规则来模拟自然语言理解(或其他自然语言处理任务),从而应对其所遇到的数据。

统计自然语言处理(1990 年代–2010 年代)

   直到 1980 年代,大多数自然语言处理系统都基于复杂的手写规则集。然而,自 1980 年代末开始,随着引入机器学习算法进行语言处理,自然语言处理领域发生了一场革命。这一变化既得益于计算能力的稳步提升(参见摩尔定律),也得益于乔姆斯基语言学理论(例如转化语法)的主导地位逐渐减弱,这些理论的理论基础阻碍了以语料库语言学为基础的机器学习方法在语言处理中的应用。[8]

神经网络自然语言处理(现状)

   2003 年,Yoshua Bengio 及其合著者提出的多层感知器(具有单一隐层和上下文长度为数个词的语言模型,并在 14 百万词语的训练数据上使用 CPU 集群)超越了当时最好的统计算法——词 n-gram 模型。[9]

   2010 年,Tomáš Mikolov(当时是布尔诺理工大学的博士生)及其合著者将一个简单的单隐层递归神经网络应用于语言建模,[10] 之后几年他又发展出了 Word2vec。进入 2010 年代,表示学习和深度神经网络风格(具有多个隐层)的机器学习方法在自然语言处理领域变得广泛应用。其流行部分是因为一系列结果表明,这些技术[11][12]能够在许多自然语言任务中取得最先进的成绩,例如语言建模[13]和句法分析[14][15]。这一技术的应用在医学和医疗领域尤为重要,尤其是在帮助分析电子健康记录中的笔记和文本方面,这些内容本来难以进行研究,但通过 NLP 技术可以提供支持,从而改善医疗护理[16]或保护患者隐私[17]。

2. 方法:符号方法、统计方法、神经网络方法

   符号方法,即手工编写一组符号操作规则,并结合字典查找,历史上是人工智能(AI)和自然语言处理(NLP)最早使用的方法之一:[18][19] 例如,通过编写语法或设计启发式规则来进行词干提取。

   另一方面,机器学习方法,包括统计方法和神经网络方法,相较于符号方法有许多优势:

   尽管符号方法仍在 2020 年使用,但随着大型语言模型(LLMs)在 2023 年的发展,符号方法已变得基本过时。

   在此之前,它们常常用于:

统计方法

   在 1980 年代末到 1990 年代中期,统计方法结束了由基于规则方法低效性引发的 AI 冬天。[20][21]

   最早的决策树,生成硬性的 “如果-那么” 规则系统,仍然与旧的基于规则的方法非常相似。只有隐马尔可夫模型的引入,应用于词性标注,才宣告了旧的基于规则方法的结束。

神经网络

   更多信息:人工神经网络 统计方法的一个主要缺点是它们需要复杂的特征工程。自 2015 年起,[22] 统计方法已被神经网络方法取代,神经网络方法使用语义网络[23] 和词嵌入来捕捉单词的语义属性。

   中间任务(例如词性标注和依存解析)不再是必需的。

   基于新发明的序列到序列转换的神经机器翻译,淘汰了之前在统计机器翻译中必需的中间步骤,例如词对齐。

3. 常见的自然语言处理任务

   以下是一些最常研究的自然语言处理任务的列表。部分任务具有直接的现实应用,而其他任务则通常作为子任务,帮助解决更大规模的任务。

   尽管自然语言处理任务密切相关,但为了方便起见,可以将其细分为几个类别。粗略的分类如下。

文本与语音处理

   光学字符识别(OCR)

   给定一张表示印刷文本的图像,确定其对应的文本内容。

   语音识别

   给定一段人物或多人讲话的音频剪辑,确定其文本表示。这是与文本转语音相反的过程,是一种被俗称为 “AI 完备” 的极其困难的问题(见上文)。在自然语言中,单词之间几乎没有停顿,因此语音分割是语音识别的必要子任务(见下文)。在大多数口语语言中,表示连续字母的语音会相互融合,这一过程称为 “共振”,因此将模拟信号转化为离散字符可能是一个非常困难的过程。此外,由于同一语言中的单词由不同口音的人发音,语音识别软件必须能够识别这些不同的输入,并将其与文本等价物视为相同。

   语音分割

   给定一段人物或多人讲话的音频剪辑,将其分割成单个单词。这是语音识别的一个子任务,通常与语音识别一起处理。

   文本转语音 给定一段文本,将其转换成语音表示。文本转语音可以用于帮助视力障碍人士。[24]

   词语分割(标记化)

   标记化是文本分析中用来将文本划分为单个单词或单词片段的过程。该技术产生了两个关键组件:单词索引和标记化文本。单词索引是一个将唯一单词映射到特定数字标识符的列表,标记化文本则用相应的数字标记替代每个单词。然后,这些数字标记被用在各种深度学习方法中。[25]

   对于像英语这样的语言,这个过程相对简单,因为单词通常由空格分隔。然而,像中文、日语和泰语等一些书面语言并没有以这种方式标记单词边界,因此在这些语言中,文本分割是一个重要的任务,需要了解语言的词汇和形态学。有时,这一过程也用于像数据挖掘中的 “词袋模型”(BOW)创建等情况。

形态学分析

   词形还原

   去除词尾变化,只返回词语的基础字典形式,也称为词根(lemma)。词形还原是另一种将词语还原为规范形式的技术,但与之不同的是,它实际上使用字典将单词映射到其实际形式。[26]

   形态学分割

   将单词拆分为独立的语素,并识别语素的类别。此任务的难度很大程度上取决于所考虑语言的形态学复杂性(即,单词的结构)。英语的形态学相对简单,尤其是屈折形态,因此通常可以完全忽略这项任务,并简单地将一个单词的所有可能形式(例如,“open, opens, opened, opening”)视为独立的单词。然而,在像土耳其语或梅提语这样的语言中,这种方法是不可行的,因为每个字典条目都有成千上万种可能的单词形式。[27]

   词性标注

   给定一个句子,为每个单词确定其词性(POS)。许多单词,尤其是常见的单词,可以充当多种词性。例如,“book” 可以是名词(“the book on the table”)或动词(“to book a flight”);“set” 可以是名词、动词或形容词;而 “out” 至少可以是五种不同的词性之一。

   词干提取

   将屈折(或有时派生)词还原为基本形式的过程(例如,“close” 是 “closed”、“closing”、“close”、“closer” 等词的词干)。词干提取与词形还原产生类似的结果,但它是基于规则进行的,而不是基于字典。

句法分析

   语法归纳[28]

   生成描述语言语法的形式化语法。

   句子分割(也称为 “句子边界歧义消解”)

   给定一段文本,找出句子边界。句子边界通常由句点或其他标点符号标示,但这些符号也可以用于其他目的(例如,表示缩写)。

   句法分析

   确定给定句子的句法树(语法分析)。自然语言的语法是模糊的,典型的句子有多种可能的分析方式:令人惊讶的是,对于一个典型的句子,可能有成千上万种潜在的分析(其中大多数对人类来说完全没有意义)。句法分析主要有两种类型:依存句法分析和成分句法分析。依存句法分析侧重于句子中单词之间的关系(标记主语、谓语等),而成分句法分析则侧重于使用概率上下文无关语法(PCFG)构建句法树(参见随机语法)。

词汇语义学(上下文中的单个词的语义)

   词汇语义学

   计算机如何理解上下文中单个词的意义?

   分布式语义学

   我们如何从数据中学习语义表示?

   命名实体识别(NER)

   给定一段文本,确定文本中哪些项映射到专有名词,如人物或地点,并确定每个专有名词的类型(如人物、地点、组织)。虽然在英语等语言中,大写字母有助于识别命名实体,但它不能帮助确定命名实体的类型,而且在很多情况下,大写字母信息不准确或不足。例如,句子的第一个字母也会大写,命名实体通常跨越多个词,其中只有部分单词大写。此外,许多使用非西方字母的语言(如中文或阿拉伯语)根本没有大写字母,即使是有大写字母的语言,也不一定一致地使用它来区分名称。例如,德语中所有名词都大写,而无论它们是否为专有名词,法语和西班牙语中用作形容词的专有名词通常不大写。此任务的另一个名称是 “标记分类”(Token Classification)。

   情感分析(见 “多模态情感分析”)

   情感分析是一种计算方法,用于识别和分类文本中的情感意图。该技术通过分析文本,判断表达的情感是积极的、消极的还是中立的。情感分类模型通常利用词汇 n-gram、词频-逆文档频率(TF-IDF)特征、手工生成的特征,或者使用深度学习模型来识别文本序列中的长期和短期依赖关系。情感分析的应用非常广泛,涉及诸如对各种在线平台上的客户评论进行分类等任务。

   术语提取

   术语提取的目标是从给定的语料库中自动提取相关的术语。

   词义消歧(WSD)

   许多词有多个意思;我们需要选择在特定上下文中最符合语义的意义。对于这个问题,通常会给定一个词列表及其关联的词义,例如来自词典或在线资源(如 WordNet)。

   实体链接

   许多词——通常是专有名词——指代命名实体;在这种情况下,我们需要选择上下文中指代的实体(例如知名人物、地点、公司等)。

关系语义学(单个句子的语义)

   关系提取

   给定一段文本,识别命名实体之间的关系(例如,谁和谁结婚了)。

   语义解析

   给定一段文本(通常是一个句子),生成其语义的正式表示,可以是图形(例如,AMR 解析)或按照逻辑形式化的方式(例如,DRT 解析)。这个任务通常涉及语义学中的几个基础 NLP 任务(例如,语义角色标注、词义消歧),并且可以扩展到包括完整的语篇分析(例如,语篇分析、指代消解;见 “自然语言理解” 部分)。

   语义角色标注(见 “隐式语义角色标注”)

   给定一个句子,识别并消歧义语义谓词(例如,动词框架),然后识别并分类框架元素(语义角色)。

语篇(超越单个句子的语义)

   指代消解

   给定一个句子或更大段的文本,确定哪些词(“提及”)指代相同的对象(“实体”)。代词消解是这个任务的一个特定例子,特别关注将代词与其指代的名词或名称进行匹配。更一般的指代消解任务还包括识别所谓的 “桥接关系”,这些关系涉及指代表达。例如,在句子 “他通过前门进入了约翰的房子” 中,“前门” 是一个指代表达,所要识别的桥接关系是所指的门是约翰房子的前门(而不是某个可能被提及的其他结构的门)。

   语篇分析

   这一范畴包含几个相关任务。一个任务是语篇解析,即识别一段连贯文本的语篇结构,即句子之间的语篇关系(例如,扩展、解释、对比)。另一个可能的任务是识别和分类文本段落中的言语行为(例如,是非问题、内容问题、陈述、断言等)。

隐式语义角色标注

   给定一个句子,识别并消歧义语义谓词(例如,动词框架)及其在当前句子中的显式语义角色(参见上文的语义角色标注)。然后,识别当前句子中未显式实现的语义角色,将其分类为在文本其他地方显式实现的论元和未指定的论元,并将前者与本地文本中的内容进行关联。一个紧密相关的任务是零代词消解,即将指代消解扩展到省略主语的语言(pro-drop languages)。

   文本蕴含识别

   给定两个文本片段,判断一个是否为真能推导出另一个为真,是否推导出另一个的否定,或是否允许另一个为真或为假。[30]

   主题分割与识别

   给定一段文本,将其分割为若干主题段落,并识别每个段落的主题。

   论证挖掘

   论证挖掘的目标是通过计算机程序自动从自然语言文本中提取和识别论证结构。[31] 此类论证结构包括前提、结论、论证方案以及主论点与附属论点、或主论点与反论点之间的关系。[32][33]

更高层次的 NLP 应用

   自动摘要(文本摘要)

   生成一段文本的可读摘要。通常用于提供已知类型文本的摘要,例如研究论文、报纸财经版的文章。

   语法错误修正

   语法错误检测与修正涉及语言分析的各个层面(语音/正字法、形态学、句法、语义、语用)。语法错误修正具有重要影响,因为它涉及到数亿使用或学习英语作为第二语言的人。因此,自 2011 年以来,它一直是多个共享任务的研究对象。[34][35][36] 就正字法、形态学、句法及语义的某些方面而言,随着强大神经语言模型(如 GPT-2)的发展,至 2019 年,这一问题已经可以视为大部分解决,并且在各种商业应用中得到了推广。

   逻辑翻译

   将文本从自然语言翻译为形式逻辑。

   机器翻译(MT)

   自动将文本从一种人类语言翻译为另一种语言。这是最困难的问题之一,属于被称为 “AI 完备” 的问题类,即解决这一问题需要人类所具备的所有不同类型的知识(语法、语义、现实世界的事实等)。

   自然语言理解(NLU)

   将文本块转换为更为正式的表示形式,如一阶逻辑结构,这些结构更容易被计算机程序处理。自然语言理解涉及从多种可能的语义中识别出预期的语义,这些语义通常以组织良好的自然语言概念符号的形式表达。语言元模型和本体的引入与创建是有效的经验性解决方案。为了构建语义形式化的基础,预期对自然语言语义进行明确的形式化,不应与隐性假设(如封闭世界假设(CWA)与开放世界假设、或主观的 “是/否” 与客观的 “真/假”)混淆。[37]

   自然语言生成(NLG)

   将计算机数据库或语义意图转换为可读的人类语言。

   书籍生成

   这不是传统的 NLP 任务,但自然语言生成及其他 NLP 任务的延伸是生成完整的书籍。第一本机器生成的书籍是由基于规则的系统于 1984 年创建的(《警察的胡子是半完成的》,Racter)。[38] 第一部由神经网络发布的作品《1 the Road》于 2018 年发布,作为小说市场销售,包含六千万字。两者基本上都是精心设计但没有语义内容(无语义的)语言模型。第一本机器生成的科学书籍于 2019 年发布(《Beta Writer,锂离子电池》,Springer,Cham)。[39] 与《Racter》和《1 the Road》不同,这本书基于事实知识并以文本摘要为基础。

   文档 AI

   文档 AI 平台依托于 NLP 技术,使没有人工智能、机器学习或 NLP 经验的用户也能快速训练计算机,从不同类型的文档中提取他们所需的特定数据。基于 NLP 的文档 AI 使非技术团队能够快速访问隐藏在文档中的信息,例如律师、商业分析师和会计师。[40]

   对话管理

   旨在与人类对话的计算机系统。

   问答系统

   给定一个人类语言的问题,确定其答案。典型问题有一个特定的正确答案(如 “加拿大的首都是哪里?”),但有时也考虑开放性问题(如 “生命的意义是什么?”)。

   文本到图像生成

   给定一张图像的描述,生成一张符合描述的图像。[41]

   文本到场景生成

   给定一段场景描述,生成该场景的 3D 模型。[42][43]

   文本到视频

   给定一个视频的描述,生成符合该描述的视频。[44][45]

4. 一般趋势和(可能的)未来方向

   根据该领域长期存在的趋势,可以推测出 NLP 未来的发展方向。截至 2020 年,在 CoNLL 共享任务长期系列的主题中,可以观察到以下三种趋势:[46]

认知

   大多数高级 NLP 应用涉及模拟智能行为和表面理解自然语言的方面。从更广泛的角度来看,技术化地操作化日益复杂的认知行为方面,代表了 NLP 发展的一个轨迹(参见上面 CoNLL 共享任务中的趋势)。

   认知是指 “通过思考、经验和感官获取知识和理解的心理过程或行为。”[47] 认知科学是跨学科的科学,研究大脑及其过程。[48] 认知语言学是语言学的一个跨学科分支,结合了心理学和语言学的知识和研究。[49] 特别是在符号 NLP 时代,计算语言学领域与认知研究保持着紧密的联系。

   例如,George Lakoff 提出了通过认知科学的视角,以及认知语言学的研究成果,来构建自然语言处理(NLP)算法的方法论,[50] 其具有两个关键特征:

  1. 应用概念隐喻理论,Lakoff 解释道:“通过一种想法来理解另一种想法”,这为理解作者意图提供了线索。[51] 例如,考虑英语单词 “big”。当用于比较时(“That is a big tree”),作者的意图是暗示树的大小相对于其他树或作者的经验而言是大的。而当用作隐喻时(“Tomorrow is a big day”),作者的意图则是暗示某事的重要性。“She is a big person” 中的意图就比较模糊,且需要更多信息来明确。在这种情况下,无论是人类还是认知 NLP 算法都难以明确意图。
  2. 基于前后文本信息,给单词、短语、句子或文本片段分配相对的意义度量,例如通过概率上下文无关文法(PCFG)来实现。这类算法的数学方程在美国专利 9269353 中有所展示[52]:

   \[ RMM(token_{N}) = PMM(token_{N}) \times \frac{1}{2d} \left( \sum_{i=-d}^{d} \left( (PMM(token_{N}) \times PF(token_{N-i}, token_{N}, token_{N+i}))_i \right) \right)~ \] 其中: RMM 是意义的相对度量; token 是任何文本块、句子、短语或单词; N 是正在分析的 token 数量; PMM 是基于语料库的意义的概率度量; d 是 token 在 N 个 token 序列中的非零位置; PF 是特定语言的概率函数。

   认知语言学的联系是 NLP 的历史遗产的一部分,但自 1990 年代统计学转向以来,这些联系变得较少被关注。然而,开发认知模型并向技术上可操作化框架转化的方法仍在各种框架中得到探索,例如认知语法[53]、功能语法[54]、构式语法[55]、计算心理语言学和认知神经科学(如 ACT-R)中,尽管这些方法在主流 NLP 中的应用较少(按 ACL 主要会议的出席情况来衡量)。近年来,认知 NLP 的观点被重新振兴,作为一种实现可解释性的方法,尤其是在 “认知 AI” 的概念下。[57] 同样,认知 NLP 的思想本质上存在于神经模型的多模态 NLP 中(尽管很少被明确指出)[58],并且在人工智能的最新发展中发挥了作用,特别是在使用大型语言模型的方法[59] 和基于自由能原理的人工通用智能新方向上,由英国神经科学家兼理论学家 Karl J. Friston 提出[60]。

5. 另见

6. 参考文献

  1. "NLP".
  2. Hutchins, J. (2005). "The history of machine translation in a nutshell" (PDF). [自出版资料]
  3. "ALPAC: the (in)famous report", John Hutchins, MT News International, no. 14, June 1996, pp. 9–12.
  4. Crevier 1993, pp. 146–148, 见 Buchanan 2005, p. 56: "早期程序的范围必然受到内存大小和速度的限制"
  5. Koskenniemi, Kimmo (1983), Two-level morphology: A general computational model of word-form recognition and production (PDF), Department of General Linguistics, University of Helsinki
  6. Joshi, A. K., & Weinstein, S. (1981, August). Control of Inference: Role of Some Aspects of Discourse Structure-Centering. In IJCAI (pp. 385–387).
  7. Guida, G.; Mauri, G. (July 1986). "Evaluation of natural language processing systems: Issues and approaches". Proceedings of the IEEE. 74 (7): 1026–1035. doi:10.1109/PROC.1986.13580. ISSN 1558-2256. S2CID 30688575.
  8. 乔姆斯基语言学鼓励调查 “边角案例”,即那些突出其理论模型局限性的情况(类似于数学中的病态现象),这些案例通常通过思想实验创建,而不是像语料库语言学那样对现实数据中典型现象进行系统调查。创建和使用这些现实数据语料库是自然语言处理中的机器学习算法的基础部分。此外,乔姆斯基语言学的理论基础,如所谓的 “刺激贫乏” 论点,意味着像机器学习中典型使用的通用学习算法不能在语言处理中取得成功。因此,乔姆斯基范式抑制了将此类模型应用于语言处理的实践。
  9. Bengio, Yoshua; Ducharme, Réjean; Vincent, Pascal; Janvin, Christian (March 1, 2003). "A neural probabilistic language model". The Journal of Machine Learning Research. 3: 1137–1155 – via ACM Digital Library.
  10. Mikolov, Tomáš; Karafiát, Martin; Burget, Lukáš; Černocký, Jan; Khudanpur, Sanjeev (26 September 2010). "Recurrent neural network based language model" (PDF). Interspeech 2010. pp. 1045–1048. doi:10.21437/Interspeech.2010-343. S2CID 17048224. {{cite book}}: |journal= 被忽略 (帮助)
  11. Goldberg, Yoav (2016). "A Primer on Neural Network Models for Natural Language Processing". Journal of Artificial Intelligence Research. 57: 345–420. arXiv:1807.10854. doi:10.1613/jair.4992. S2CID 8273530.
  12. Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). *Deep Learning*. MIT Press.
  13. Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). Exploring the Limits of Language Modeling. arXiv:1602.02410. Bibcode:2016arXiv160202410J.
  14. Choe, Do Kook; Charniak, Eugene. "Parsing as Language Modeling". EMNLP 2016. Archived from the original on 2018-10-23. Retrieved 2018-10-22.
  15. Vinyals, Oriol; et al. (2014). "Grammar as a Foreign Language" (PDF). NIPS 2015. arXiv:1412.7449. Bibcode:2014arXiv1412.7449V.
  16. Turchin, Alexander; Florez Builes, Luisa F. (2021-03-19). "Using Natural Language Processing to Measure and Improve Quality of Diabetes Care: A Systematic Review". *Journal of Diabetes Science and Technology*. 15 (3): 553–560. doi:10.1177/19322968211000831. ISSN 1932-2968. PMC 8120048. PMID 33736486.
  17. Lee, Jennifer; Yang, Samuel; Holland-Hall, Cynthia; Sezgin, Emre; Gill, Manjot; Linwood, Simon; Huang, Yungui; Hoffman, Jeffrey (2022-06-10). "Prevalence of Sensitive Terms in Clinical Notes Using Natural Language Processing Techniques: Observational Study". *JMIR Medical Informatics*. 10 (6): e38482. doi:10.2196/38482. ISSN 2291-9694. PMC 9233261. PMID 35687381.
  18. Winograd, Terry (1971). *Procedures as a Representation for Data in a Computer Program for Understanding Natural Language* (Thesis).
  19. Schank, Roger C.; Abelson, Robert P. (1977). *Scripts, Plans, Goals, and Understanding: An Inquiry Into Human Knowledge Structures*. Hillsdale: Erlbaum. ISBN 0-470-99033-3.
  20. Mark Johnson. How the statistical revolution changes (computational) linguistics. *Proceedings of the EACL 2009 Workshop on the Interaction between Linguistics and Computational Linguistics*.
  21. Philip Resnik. Four revolutions. *Language Log*, February 5, 2011.
  22. Socher, Richard. "Deep Learning For NLP-ACL 2012 Tutorial". www.socher.org. Retrieved 2020-08-17. This was an early Deep Learning tutorial at the ACL 2012 and met with both interest and (at the time) skepticism by most participants. Until then, neural learning was basically rejected because of its lack of statistical interpretability. Until 2015, deep learning had evolved into the major framework of NLP. [Link is broken, try http://web.stanford.edu/class/cs224n/]
  23. Segev, Elad (2022). *Semantic Network Analysis in Social Sciences*. London: Routledge. ISBN 9780367636524. Archived from the original on 5 December 2021. Retrieved 5 December 2021.
  24. Yi, Chucai; Tian, Yingli (2012). "Assistive Text Reading from Complex Background for Blind Persons", *Camera-Based Document Analysis and Recognition*, Lecture Notes in Computer Science, vol. 7139, Springer Berlin Heidelberg, pp. 15–28, CiteSeerX 10.1.1.668.869, doi:10.1007/978-3-642-29364-1_2, ISBN 9783642293634.
  25. "Natural Language Processing (NLP) - A Complete Guide". www.deeplearning.ai. 2023-01-11. Retrieved 2024-05-05.
  26. "What is Natural Language Processing? Intro to NLP in Machine Learning". GyanSetu!. 2020-12-06. Retrieved 2021-01-09.
  27. Kishorjit, N.; Vidya, Raj RK.; Nirmal, Y.; Sivaji, B. (2012). "Manipuri Morpheme Identification" (PDF). *Proceedings of the 3rd Workshop on South and Southeast Asian Natural Language Processing (SANLP)*. COLING 2012, Mumbai, December 2012: 95–108.
  28. Klein, Dan; Manning, Christopher D. (2002). "Natural language grammar induction using a constituent-context model" (PDF). *Advances in Neural Information Processing Systems*.
  29. Kariampuzha, William; Alyea, Gioconda; Qu, Sue; Sanjak, Jaleal; Mathé, Ewy; Sid, Eric; Chatelaine, Haley; Yadaw, Arjun; Xu, Yanji; Zhu, Qian (2023). "Precision information extraction for rare disease epidemiology at scale". *Journal of Translational Medicine*. 21 (1): 157. doi:10.1186/s12967-023-04011-y. PMC 9972634. PMID 36855134.
  30. PASCAL Recognizing Textual Entailment Challenge (RTE-7) [https://tac.nist.gov//2011/RTE/](https://tac.nist.gov//2011/RTE/)
  31. Lippi, Marco; Torroni, Paolo (2016-04-20). "Argumentation Mining: State of the Art and Emerging Trends". *ACM Transactions on Internet Technology*. 16 (2): 1–25. doi:10.1145/2850417. hdl:11585/523460. ISSN 1533-5399. S2CID 9561587.
  32. "Argument Mining – IJCAI2016 Tutorial". www.i3s.unice.fr. Retrieved 2021-03-09.
  33. "NLP Approaches to Computational Argumentation – ACL 2016, Berlin". Retrieved 2021-03-09.
  34. Administration. "Centre for Language Technology (CLT)". Macquarie University. Retrieved 2021-01-11.
  35. "Shared Task: Grammatical Error Correction". www.comp.nus.edu.sg. Retrieved 2021-01-11.
  36. "Shared Task: Grammatical Error Correction". www.comp.nus.edu.sg. Retrieved 2021-01-11.
  37. Duan, Yucong; Cruz, Christophe (2011). "Formalizing Semantic of Natural Language through Conceptualization from Existence". *International Journal of Innovation, Management and Technology*. 2 (1): 37–42. Archived from the original on 2011-10-09.
  38. "U B U W E B :: Racter". www.ubu.com. Retrieved 2020-08-17.
  39. Writer, Beta (2019). *Lithium-Ion Batteries*. doi:10.1007/978-3-030-16800-1. ISBN 978-3-030-16799-8. S2CID 155818532.
  40. "Document Understanding AI on Google Cloud (Cloud Next '19) – YouTube". www.youtube.com. 11 April 2019. Archived from the original on 2021-10-30. Retrieved 2021-01-11.
  41. Robertson, Adi (2022-04-06). "OpenAI's DALL-E AI image generator can now edit pictures, too". *The Verge*. Retrieved 2022-06-07.
  42. "The Stanford Natural Language Processing Group". nlp.stanford.edu. Retrieved 2022-06-07.
  43. Coyne, Bob; Sproat, Richard (2001-08-01). "WordsEye". *Proceedings of the 28th Annual Conference on Computer Graphics and Interactive Techniques*. SIGGRAPH '01. New York, NY, USA: Association for Computing Machinery. pp. 487–496. doi:10.1145/383259.383316. ISBN 978-1-58113-374-5. S2CID 3842372.
  44. "Google announces AI advances in text-to-video, language translation, more". *VentureBeat*. 2022-11-02. Retrieved 2022-11-09.
  45. Vincent, James (2022-09-29). "Meta's new text-to-video AI generator is like DALL-E for video". *The Verge*. Retrieved 2022-11-09.
  46. "Previous shared tasks | CoNLL". www.conll.org. Retrieved 2021-01-11. "Cognition". *Lexico*. Oxford University Press and Dictionary.com. Archived from the original on July 15, 2020. Retrieved 6 May 2020.
  47. "Ask the Cognitive Scientist". American Federation of Teachers. 8 August 2014. Cognitive science is an interdisciplinary field of researchers from Linguistics, psychology, neuroscience, philosophy, computer science, and anthropology that seek to understand the mind.
  48. Robinson, Peter (2008). *Handbook of Cognitive Linguistics and Second Language Acquisition*. Routledge. pp. 3–8. ISBN 978-0-805-85352-0.
  49. Lakoff, George (1999). *Philosophy in the Flesh: The Embodied Mind and Its Challenge to Western Philosophy; Appendix: The Neural
  50. Theory of Language Paradigm*. New York: Basic Books. pp. 569–583. ISBN 978-0-465-05674-3.
  51. Strauss, Claudia (1999). A Cognitive Theory of Cultural Meaning. Cambridge University Press. pp. 156–164. ISBN 978-0-521-59541-4.
  52. US patent 9269353
  53. "Universal Conceptual Cognitive Annotation (UCCA)". Universal Conceptual Cognitive Annotation (UCCA). Retrieved 2021-01-11.
  54. Rodríguez, F. C., & Mairal-Usón, R. (2016). Building an RRG computational grammar. Onomazein, (34), 86–117.
  55. "Fluid Construction Grammar – A fully operational processing system for construction grammars". Retrieved 2021-01-11.
  56. "ACL Member Portal | The Association for Computational Linguistics Member Portal". www.aclweb.org. Retrieved 2021-01-11.
  57. "Chunks and Rules". W3C. Retrieved 2021-01-11.
  58. Socher, Richard; Karpathy, Andrej; Le, Quoc V.; Manning, Christopher D.; Ng, Andrew Y. (2014). "Grounded Compositional Semantics for Finding and Describing Images with Sentences". Transactions of the Association for Computational Linguistics. 2: 207–218. doi:10.1162/tacl_a_00177. S2CID 2317858.
  59. Dasgupta, Ishita; Lampinen, Andrew K.; Chan, Stephanie C. Y.; Creswell, Antonia; Kumaran, Dharshan; McClelland, James L.; Hill, Felix (2022). "Language models show human-like content effects on reasoning, Dasgupta, Lampinen et al". arXiv:2207.07051 [cs.CL].
  60. Friston, Karl J. (2022). Active Inference: The Free Energy Principle in Mind, Brain, and Behavior; Chapter 4 The Generative Models of Active Inference. The MIT Press. ISBN 978-0-262-36997-8.

7. 进一步阅读

8. 外部链接

                     

© 小时科技 保留一切权利