首页 > 人工智能 > 自然语言

关于 “自然语言” 的内容如下:

  • 【眼界】NLP 迎来了黄金时代

    作者丨王斌策划丨刘燕来自 | InfoQ时钟拨回到 20 年前。那一年,我以机器翻译方向的博士毕业,到几家单位应聘。当年,毕业的博士还很少。因此,应聘单位对我似乎还是网开一面,这导致我经历的应聘过程都十分轻松短暂。几个单位基本只关心两个问题:第一,“你是博士?“,第二,“你会 C++ 吗?“ 当得到肯定的答复之后,对方就给了 offer。虽然这么容易拿到了 offer,但其实我

    dicksonjyl560101 自然语言 143 2019-12-07 13:15
  • 曼孚科技:AI自然语言处理(NLP)领域常用的16个术语

    AI自然语言处理(NLP)领域常用的16个术语

    曼孚科技 自然语言 393 2019-12-03 15:01
  • photoplus人脸识别3.0上线识别率超过97%

    经过四个月时间,2位博士,5位工程师,10万公开数据标注,20万平台私有数据标注,8台GPU服务器机器学习,60万数据训练,优化迭代23个版本后,photoplus自研的的识别3.0终于上线了。 完全采用了自己的人脸识别算法,和人脸分布式搜索引擎。识别率提高到97%,召回率提高到76%,百万级人脸10s内返回结果。所有结果全部返回,不再限制只有5个结果。在图片直播场景下,准确率,召回率,

    希文zz 自然语言 365 2019-11-26 11:46
  • 专访MSRA副院长周明:中国NLP如何跻身世界顶尖水平?

    近期中国计算机学会(CCF)举办的第六届自然语言处理及中文计算大会(NLPCC 2017)在大连成功举办。作为国内 NLP 领域首个面向国际的大会,NLPCC 无论从会议的形式、参会的人数、还是报告的质量,都展现出了一副朝气蓬勃的气象,欲有引领中国 NLP 走向国际之势。为深入了解中国当前 NLP 的发展状况及前景、CCF 在 NLP 方向的努力,以及 NLPCC 会议的发展情况,雷锋网对 CCF

    AIBigbull2050 自然语言 426 2019-11-26 08:59
  • 关于自然语言对话的技术挑战和应用前景,来自这六大厂的一线技术负责人聊了聊

    导语:微软、阿里、百度、小米、京东以及华为!雷锋网 AI 科技评论按:对话作为人类最基本、最重要的交流方式,自然语言对话技术自然也成为了自然语言处理领域离人类最近的技术之一,这一领域乃至整个人工智能领域要想走向理想状态,势必要解决自然语言对话所面临的一系列问题和挑战。而所有技术的问题和挑战在实践应用中是最容易体现出来的,因而对此最具有发言权的莫过于实现技术落地的企业一线技术人员。近日,华为诺亚方舟

    AIBigbull2050 自然语言 397 2019-11-20 12:55
  • 电网行业,如何应用自然语言理解技术?

    本文分享了智能电网的发展现状与未来趋势,并且具体讲解了自然语言理解技术在电网行业中的应用。电力网(电网)是高效快捷的能源输送通道和优化配置平台,是能源电力可持续发展的关键环节。在现代能源供应体系中,电网发挥着重要的枢纽作用,关系国家能源安全。2010年以来,国家电网的规模增长近一倍,保障了经济社会发展对能源电力的需求。随着人工智能技术的快速发展,机器智能的优势正逐渐深入各行各业。本文将聚焦中国市场

    AIBigbull2050 自然语言 432 2019-11-17 14:01
  • 加拿大拒发签证,AI学者们纷纷为NeurIPS2019的黑人参会者们发声

    今年的 NeurIPS 会议下个月就要开幕了。本来大家以为今年在加拿大举行,参会者们应该不会遇到(像在美国举办学术会议的时候一样)那么多签证方面的麻烦,但结果情况还是令人感到沮丧。几天前,谷歌 AI 研究员、NeurIPS 2019 上的 Black in AI Workshop (AI 领域的黑人研讨会)的

    AIBigbull2050 自然语言 401 2019-11-11 08:55
  • 中文预训练模型ZEN开源,效果领域内最佳,创新工场港科大出品

    改进策略简单有效、收敛速度快,同时小数据效果出色。这就是中文预训练模型ZEN。在中文任务中,ZEN不仅性能优于BERT,也比之前中文预训练模型更好。可以说是目前全球中文领域最佳预训练模型。而且现在,ZEN开源了。源代码和训练好的模型均已发布,未来还承诺会有更大数据和其他语言版本迭代上新。详情我们展开往下说。ZEN因何而生随着BERT(Devlin et al., 2018)等一系列预训练模型的出现

    AIBigbull2050 自然语言 425 2019-11-06 09:53
  • NLP领域预训练模型的现状及分析

    作者 |  王泽洋单位 | 小牛翻译王泽洋 东北大学自然语言处理实验室研究生,研究方向为机器翻译。小牛翻译,核心成员来自东北大学自然语言处理实验室,由姚天顺教授创建于1980年,现由朱靖波教授、肖桐博士领导,长期从事计算语言学的相关研究工作,主要包括机器翻译、语言分析、文本挖掘等。团队研发的支持140种语言互译的小牛翻译系统已经得到广泛应用,并研发了小牛翻译云(https://

    dicksonjyl560101 自然语言 432 2019-11-05 12:58
  • 自然语言处理的最佳实践

    近年来,自然语言处理(NLP)在质量和可用性方面快速增长,这有助于推动人工智能解决方案的实际落地。在过去的几年里,研究人员一直在将新的深度学习方法应用于 NLP。数据科学家开始从传统的方法转向最先进的(SOTA)深度神经网络(DNN)算法,这种算法使用的语言模型经过了大文本语料库的预训练。此存储库包含构建 NLP 系统的示例和最佳实践,在 jupyter notebook 和实用程序函数中提供。知

    AIBigbull2050 自然语言 427 2019-10-28 09:08
  • ChineseGLUE:为中文NLP模型定制的自然语言理解基准

    GLUE 是一个用于评估通用 NLP 模型的基准,其排行榜可以在一定程度上反映 NLP 模型性能的高低。然而,现有的 GLUE 基准针对的是英文任务,无法评价 NLP 模型处理中文的能力。为了填补这一空白,国内关注 NLP 的热心人士发布了一个中文语言理解测评基准——ChineseGLUE。ChineseGLUE 目前拥有八个数据集的整体测评及其基线模型,目前已经有 20多位来自各个顶尖机构的自愿

    AIBigbull2050 自然语言 481 2019-10-25 16:12
  • 自然语言处理中的迁移学习(上)

     2019-10-20 22:10:42作者 | 哈工大SCIR 徐啸编辑 | 唐里本文转载自公众号「哈工大SCIR」(微信ID:HIt_SCIR),该公众号为哈尔滨工业大学社会计算与信息检索研究中心(刘挺教授为中心主任)的师生的信息分享平台,本文作者为哈工大SCIR 徐啸。来源:Transfer Learning in Natural Language Processing Tutor

    AIBigbull2050 自然语言 452 2019-10-23 15:43
  • 自然语言处理中的迁移学习(下)

    2019-10-21 21:29:35作者:哈工大SCIR 徐啸本文小结:本文为教程的第二篇,包含教程的 3-6 部分。相关链接:赛尔笔记 | 自然语言处理中的迁移学习(上)提纲介绍:本节将介绍本教程的主题:迁移学习当前在自然语言处理中的应用。在不同的迁移学习领域中,我们主要定位于顺序迁移学习 sequential transfer learning 。预训练:我们将讨论无监督、监督和远程监督的预

    AIBigbull2050 自然语言 457 2019-10-23 15:40
  • 谷歌BERT遭遇对手,微软UniLM AI突破大量文本处理瓶颈

    导语:它已经掌握了28996个词汇,但它还要学习更多。智东西10月17日消息,去年10月谷歌发布的BERT模型已经在阅读理解测试中全面超越人类,今天微软的UniLM模型将这一领域的研究推向了新的高度。据外媒报道,微软近日推出的UniLM AI训练模型通过改变传统AI系统学习方式,成功实现单向预测,突破了自然语言处理中大量文本修改的瓶颈。一、改变双向预测方式语言模型预训练(Language mode

    AIBigbull2050 自然语言 463 2019-10-19 21:34
  • 追一科技刘云峰:今年是NLP技术大年,要做全栈的AI公司

    NLP之外,追一科技也在扩大语音和视觉团队,构建语义、语音、多模态等AI技术的闭环。“我上个月在南京的差旅住宿,花了多少钱?”“我上周五通过信用卡消费了多少钱?”……上述问题,聊天机器人可以立刻给你答案。让机器读懂我们的的语言,并且输出我们能明白的回答,这个过程就需要自然语言处理(NLP)技术的支持。换句话说,NLP充当了机器和人类之间的翻译工作,它在诸多AI应用中发挥着关键作用。与热门的计算机视

    AIBigbull2050 自然语言 427 2019-10-18 10:30
  • 谷歌发布含 7 种语言的全新数据集:有效提升 BERT 等多语言模型任务精度高达 3 倍!

    导语:有效地度量模型对词序和结构的敏感性按:近日,谷歌发布了包含 7 种语言释义对的全新数据集,即:PAWS 与 PAWS-X。BERT 通过该数据集的训练,在释义对问题上的精度实现了约为 3 倍的提升;其它先进的模型也能够利用该数据集将精度提高到 85-90%。谷歌希望这些数据集将有助于推动多语言模型的进一步发展,并发布了相关文章介绍了该数据集,雷锋网 AI 开发者将其整理编译如下。背景环境词序

    AIBigbull2050 自然语言 429 2019-10-10 10:30
  • 「NLP-ChatBot」我们熟悉的聊天机器人都有哪几类?

    2019-10-08 07:25:00本篇是专栏中介绍聊天机器人的第一篇,会大概介绍聊天机器人的历史、特点、分类以及技术框架,让大家对聊天机器人有一个大致的了解。作者 | 小Dream哥编辑 | 言有三1 chatbot概述关于对话机器人的研究,可以追溯到上个世纪50年代,Alan M. Turing提出了“机器可以思考吗?”的图灵测试问题来衡量人工智能发展的程度。图灵测试简单来说,就是让测试者分

    AIBigbull2050 自然语言 479 2019-10-10 10:28
  • 自然语言不等于英语,为什么NLPer应当认识到这个问题,以及该怎么做?

    导语:自然语言并不等于英语~编者按:自然语言并不等于英语。然而,目前NLP的研究中,大家潜意识里却认为英语是一种具有足够代表性的语言。而除英语以外的其他语言研究则通常被认为是“特殊语言”,在审稿人的眼中同等情况下对它们的研究则不如英语研究重要。这本质上是对语言的“以偏概全”。近日华盛顿大学语言学家Emily M. Bender为此撰写了一篇文章《The Bender Rule: On Naming

    AIBigbull2050 自然语言 403 2019-10-08 12:42
  • 基于Go的语义解析开源库FMR,“屠榜”模型外的NLP利器

    2019-09-24 21:02:14(由AI科技大本营付费下载自视觉中国)作者 | 刘占亮 一览群智技术副总裁编辑 | Jane出品 | AI科技大本营(ID:rgznai100)如何合理地表示语言的内在意义?这是自然语言处理业界中长久以来悬而未决的一个命题。在 2013 年分布式词向量表示(Distributed Representation)出现之前,one-hot 是最

    AIBigbull2050 自然语言 433 2019-09-30 13:32
  • XLNet预训练模型,看这篇就够了!(代码实现)

    文章目录1. 什么是XLNet2. 自回归语言模型(Autoregressive LM)3. 自编码语言模型(Autoencoder LM)4. XLNet模型4.1 排列语言建模(Permutation Language Modeling)4.2 Transformer XL4.2.1 vanilla Transformer4.2.2 Transformer XL5. XLNet与BERT比较6...

    mantch 自然语言 452 2019-09-30 11:00
点击加载更多下一页