比特派钱包app官方版|wmt

作者: 比特派钱包app官方版
2024-03-07 22:01:24

WMT | Machine Translate

WMT | Machine Translate Skip to main content Link Menu Expand (external link) Document Search Copy Copied Machine Translate EventsCalls for papers APIsNiutransAlibaba TranslateModernMTBaidu TranslateGoogle TranslateMicrosoft TranslatorNeuralSpaceYoudao TranslateLingvaNexYandex TranslateTexTraAmazon TranslateAppTekLanguage WeaverWordlingoSYSTRANKantanMTOmniscien TechnologiesWatson Language TranslatorIconicLiltIP TranslatorDeepLApertiumXL8PROMTGlobaleseKodensha MTSAP Translation HubeTranslationUnbabelLingmo TranslationReversoRozetta T-400TildeTextshuttleSogou TranslateTencent Machine TranslationAISAKakaoMirai TranslatorT-tact-AN-ZINAlexa Translations A.I.Lingo24Papago TranslationPangeaMTLucyTranslateMeLanguage WirePhrase NextMTCloudTranslationTAPTAEliaTrebeTauyouJudicioMosesBelazarLengooOpus CATSunda TranslatorTarjama MTUbiqus NMTYeeKitAcoladFairtradeGeofluentLingua CustodiaLT GearMoraviaMTNpatMTOctaveMTPlata VicomtechSkrivanekSlate DesktopTransPerfect NMTSafaba Features Customisation Adaptive machine translation Fine-tuning Formality Glossaries Data confidentialityPricing IntegrationsTrados StudioPhrase TMSmemoQXTMCrowdinMateCatWordbeeWordfastGlobalLinkOmegaTSmartcattranslate5AcrossMultitransSmartlingTransitNXTTolgeeTransifexPassoloeLUNaWeglotKantanStreamGoogle Cloud Translation HubWorldServerGroupShareLiltSDL TMS AggregatorsIntentoCustom.MTTMXmallEden AICrosslang MT GatewayMTransHuman Science Quality estimationModelFrontDeMT EstimatePhrase MTQEOmniscien Confidence ScoresKantanQESGoogle Translation Hub MTQP Languages Building and researchAutomatic post-editing Approaches Rule-based machine translation Statistical machine translation Neural machine translation DataTrainingQuality evaluation Metrics BLEU METEOR COMET YiSi chrF NIST BERTScore TER Human evaluation metrics Multi-engine machine translationTags and placeholdersLocale Other input types Speech BridgingHuman-in-the-loopLibraries and frameworksZero-shot translation ConceptsAttentionLanguage modelN-gramSentence splittingStringTokenVectorVocabularyWord embeddings Resources TutorialsEducationPublicationsReports More People Warren Weaver Petr Troyanskii Yehoshua Bar-Hillel Georges Artsrouni Margaret Masterman Peter Toma John Hutchins Hermann Ney Salim Roukos Jaime Carbonell Andy Way Daniel Marcu Alon Lavie Philipp Koehn Franz Josef Och Ondřej Bojar Matt Post Jean Senellart Kishore Papineni Martin Popel Lucia Specia CompaniesResearch laboratoriesCommunities Associations AAMT AMTA EAMT IAMT MT Summit SIGMT SIGSLT WMT About the Machine Translate FoundationCommunityNewsletter ContributingStyleComing soonContributorsRoadmap This site uses Just the Docs, a documentation theme for Jekyll. More Associations WMT WMT The Conference on Machine Translation WMT is the main event for machine translation and machine translation research. The conference is held annually in connection with larger conferences on natural language processing. The conference aims to bring together academic scientists, researchers and industry representatives to exchange and share their experiences and research results. WMT plays a key role for the entire industry of computational linguistics and machine translation. In 2006, the first Workshop on Machine Translation was held at the NAACL (North American Chapter of the Association for Computational Linguistics Annual Meeting). In 2016, with the rise of neural machine translation, WMT became a conference of its own. The Conference on Machine Translation is still mainly known as WMT. Universities, research laboratories and big technology companies consistently participate in the conference and are represented in the organising committee. Table of contents Events Shared tasks Recurrent tasks Translation tasks Evaluation tasks Other tasks Discontinued tasks Organisers Events       WMT22 Eighth Conference on Machine Translation EMNLP 2022 WMT21 Seventh Conference on Machine Translation EMNLP 2021 WMT20 Sixth Conference on Machine Translation EMNLP 2020 WMT19 Fourth Conference on Machine Translation ACL 2019 WMT18 Third Conference on Machine Translation EMNLP 2018 WMT17 Second Conference on Machine Translation EMNLP 2017 WMT16 First Conference on Machine Translation ACL 2016 WMT15 Workshop on Statistical Machine Translation EMNLP 2015 WMT14 Workshop on Statistical Machine Translation ACL 2014 WMT13 Workshop on Statistical Machine Translation ACL 2013 WMT12 Workshop on Statistical Machine Translation NAACL 2012 WMT11 Workshop on Statistical Machine Translation EMNLP 2011 WMT10 Workshop on Statistical Machine Translation ACL 2010 WMT09 Workshop on Statistical Machine Translation EACL 2009 WMT08 Workshop on Statistical Machine Translation ACL 2008 WMT07 Workshop on Statistical Machine Translation ACL 2007 WMT06 Workshop on Statistical Machine Translation NAACL 2006 Shared tasks WMT includes competitions on different aspects of machine translation. These competitions are known as shared tasks. Typically, the task organisers provide datasets and instructions. Teams submit the output of their systems. The submissions are ranked with human evaluation. The results of the competition are ready before the conference takes place. During the main conference, researchers present the results of the shared tasks and winners are announced. WMT started in 2006 with a translation task. In the following years, WMT included themes on all aspects of machine translation, corpus preparation, training, and evaluation. The main task is the General machine translation task. Until 2022, it was known as the News task because traditionally the content to be translated was news articles. Recurrent tasks Translation tasks General machine translation task (former News task) Biomedical translation task Multimodal translation task Unsupervised and very low resource translation task Lifelong learning in machine translation task Chat translation task Life-long learning in machine translation task Machine translation using terminologies task Sign language translation task Robustness translation task Triangular machine translation task Large-scale multilingual machine translation task Evaluation tasks Metrics task Quality estimation task Other tasks Automatic post-editing task Discontinued tasks Medical text translation task Pronoun translation task Bilingual document alignment Similar language translation task Multilingual low-resource translation task for Indo-European languages Tuning task Parallel corpus filtering task Task on training of neural machine translation Task on bandit learning for machine translation The published results from the shared tasks and the data sets released for WMT are standard benchmarks across machine translation research. Organisers Organisers are the people responsible for the contents for the main event and the contents, guidelines, datasets and results for each shared task. Some people have been organisers over many years: Philipp Koehn Barry Haddow Loïc Barrault Ondřej Bojar Lucia Specia Marco Turchi Matt Post Rajen Chatterjee Christof Monz Matteo Negri Matthias Huck Christian Federmann Christof Monz Yvette Graham Mariana Neves Tom Kocmi ↑ Want to learn more about WMT? Search the community for WMT Ask a question about WMT Edited on by . Edit this article → Machine Translate is created and edited by contributors like you! Learn more about contributing → Licensed under CC-BY-SA-4.0. Cite this article →

LanguageX斩获WMT2022国际机器翻译大赛英中冠军 - 知乎

LanguageX斩获WMT2022国际机器翻译大赛英中冠军 - 知乎切换模式写文章登录/注册LanguageX斩获WMT2022国际机器翻译大赛英中冠军李光华DavidLee公众号@David的AI全景图、AI翻译LanguageX近日,全球顶级机器翻译赛事——国际机器翻译大赛(WMT 2022)落下帷幕,公布了华为、三星、京东探索研究院、思必驰、Systran、LanguageX等多支参赛队伍参赛成绩。LanguageX脱颖而出,一举夺得英中赛道冠军。作为世界顶级的机器翻译赛事,WMT自2006年开办以来,已经成功举办了17届。每年大赛吸引的参赛者包括Facebook、谷歌Deepmind、微软、阿里、腾讯、字节跳动等,每一次机翻结果的提交都是参赛者对进一步提升机翻质量做出的不懈探索。与往年不同的是,随着近年来机翻质量的不断改进,2022年的WMT赛事应用了全新的规则,即不再将新闻类语料作为唯一测试语料,而是将重点放在提升机器翻译在通用领域的表现,涉及语料领域更广泛,如电商、医疗等,对机器翻译质量提出了比历年更高的要求。◉本次大赛采用了一种全新的自动评估指标:COMET。COMET(用于评估译文的跨语言优化指标)是一种用于评估多语言机器翻译模型的新型神经网络框架,旨在预测人类语言专家对机器翻译质量的判断。COMET利用最近在跨语言神经语言建模方面的突破,建立了多语言自适应的机器翻译评估模型。它也将来自源语言和目标语言参考译文的信息结合起来,采用足够的粒度捕捉文本之间的语义相似性,以准确预测人类专家的翻译质量判断,具有更高的准确性。通用领域赛道竞争激烈,强手如云。诸如华为、三星、京东探索研究院、思必驰、Systran、Niutrans、ProMT、Lan-bridge、大连理工大学等实力强劲对手赫然在列。◉各大参赛团队共提交800次结果,英中作为两大通用语种,更是本届比赛的热门赛道。经过历时九天的激烈角逐,最终,LanguageX团队以英中四次提交均排名第一的优异成绩,斩获英中赛道冠军。(LanguageX获得2022WMT英中方向第一名)除此之外,LanguageX团队还参加了中英和英日方向的比赛,获得了中英方向第三名,英日方向第三名的优异成绩。(LanguageX获得2022WMT中英方向第三名)(LanguageX获得2022WMT英日方向第三名)冠军翻译引擎+交互式翻译,为译者而生的机器翻译自2017年神经网络机器翻译流行以来,“机器翻译替代人工翻译”的观点屡见不鲜。作为一个技术和语言背景结合的团队,LanguageX认为语言服务是高度复杂、需要创意的智力活动,并肩负着人类沟通的重要使命。LanguageX致力于将前沿自然语言处理技术应用于专业翻译领域。除了高品质机器翻译引擎,LanguageX还允许译者快速上传语料和训练自己的翻译引擎,大幅降低译者使用专业机器翻译的门槛。此外,LanguageX提供结合交互式翻译、智能纠错、实时预览等AI辅助翻译功能。译者在翻译过程中。系统根据术语、翻译记忆、译者输入实时推荐译文,让译者专注于翻译,大大提升了翻译效率和体验。秉承“翻译是一门艺术,译者是跨语言的作家,让机器的工作归机器,人的工作归人”的宣言,LanguageX致力于为专业译者和语言服务从业者打造属于他们的机器翻译。发布于 2022-09-22 16:23机器翻译译者翻译​赞同 3​​1 条评论​分享​喜欢​收藏​申请

沃尔玛(WMT)股票股价_股价行情_财报_数据报告 - 雪球

WMT)股票股价_股价行情_财报_数据报告 - 雪球首页行情行情中心筛选器新股上市买什么交易A股交易基金交易私募中心下载App扫一扫,下载登录/注册公司概况公司简介公司高管内部持股所属指数股票交易盘前交易盘后交易历史价格期权交易空仓数据内部交易市场预期财报公告SEC文件财报公告(中)财报公告(英)电话会议实录财务数据主要指标分红派息利润表资产负债表现金流量表雪球选股器研究分析收益预估评级变化研究报告APP专享大盘异动股价提醒购买指数相关ETF扫码下载雪球App查看详情沃尔玛(NYSE:WMT)可融资可卖空$60.57+0.53 +0.88% 4.89 万球友关注盘前交易 03-06 16:10:00 美东时间盘前交易60.71+0.14+0.23%最高:60.62今开:60.12成交量:1269.87万股换手:0.16%最低:60.04昨收:60.04成交额:7.67亿振幅:0.97%52周最高:60.62量比:0.63市盈率(TTM):31.45市净率:5.8252周最低:45.36委比:-50.00%市盈率(静):31.45市销率:0.75每股收益:1.93股息(TTM):0.76每手股数:1总市值:4877.58亿每股净资产:31.15股息率(TTM):1.26%最小价差:0.01总股本:80.53亿机构持股:--Beta:--空头回补天数:--货币单位:USD分时五日日K周K月K季K年K120分60分30分15分5分1分区间统计全屏显示股票对比前复权前复权后复权不复权MABOLL成交量MACDKDJPEPSPCF总市值WRRSIBIASCCIPSY近1月近3月近6月近1年近3年近5年今年以来上市以来-简介沃尔玛公司于1969年10月在特拉华州成立,一家美国的世界性连锁企业。该公司经营遍布世界各地的零售商店。 该公司的沃尔玛国际部门包括在美国以外的27个国家的业务,分为三大类:零售,批发等多种形式。包括超级市场,超级市场,大型超市,仓库俱乐部,山姆俱乐部,现金和携带,家居装修,专业电子,服装店,药店和便利店,以及数字零售。公司网站:http://www.stock.walmart.com公司地址:702 S.W. 8th Street

Bentonville

Arkansas

72716公司电话:1-479-2734000收起沃尔玛公司于1969年10月在特拉华州成立,一家美国的世界性连锁企业。该公司经营遍布世界各地的零售商店。 该公司的沃尔玛国际部门包...展开业务经营大型超市

神经机器翻译数据集WMT预处理流程 - 知乎

神经机器翻译数据集WMT预处理流程 - 知乎首发于皮皮鲁的科技星球切换模式写文章登录/注册神经机器翻译数据集WMT预处理流程PP鲁 本文同时发布在我的个人网站:https://lulaoshi.info/blog/NMT-dataset-preprocess.html神经机器翻译(Neural Machine Translation,NMT)借助深度神经网络对不同语言的文本进行翻译,本文主要介绍机器翻译数据集WMT16 en-de的预处理过程。Token与Subword对于神经机器翻译,想要被翻译的源语言被称为Source,想要翻译的目标语言被称为Target。训练数据为两种不同语言的句子对(Source Target Sentence Pair)。以英语(en)德语(de)翻译为例,一个训练数据样本为:sources.en (English):I declare resumed the session of the European Parliament adjourned on Friday 17 December 1999, and I would like once again to wish you a happy new year in the hope that you enj

oyed a pleasant festive period.

http://targets.de (German):Ich erkläre die am Freitag, dem 17. Dezember unterbrochene Sitzungsperiode des Europäischen Parlaments für wiederaufgenommen, wünsche Ihnen nochmals alles Gute zum Jahreswechse

l und hoffe, daß Sie schöne Ferien hatten.

自然语言处理中通常将文本定义为由多个词条(Token)组成的序列。Token可以是单词,也可以是词干、前缀、后缀等。先把问题最简单化,将Token理解成单词。我们需要使用分词器(Tokenizer)将一个完整的句子拆分成Token。像英语和德语,单词之间有空格分隔,Tokenizer只需要将空格、标点符号等提取出来,就可以获得句子中的Token。常见的Tokenizer有Moses tokenizer.perl脚本或spaCy,nltk或Stanford Tokenizer之类的库。前面的例子经过Tokenizer对标点符号和空格做简单处理后为:I declare resumed the session of the European Parliament adjourned on Friday 17 December 1999 , and I would like once again to wish you a happy new year in the hope that you en

joyed a pleasant festive period .

其实看不出太多变化,只是所有的单词以及标点符号之间都多了空格。使用Tokenizer对原始语料进行切分后,生成大量的Token,这些Token共同组成了词表(Vocabulary)。比如,一个英文词表可以是:I

declare

resumed

...

然而,如果将Token定义为单词,建立基于单词的模型有很多缺点。由于模型输出的是单词的概率分布,因此词表中单词数量很大情况下,模型会变得非常慢。如果单词表中包括拼写错误和各类派生单词,则词表的大小实际上是无限的。我们希望模型只处理最常见的单词,所以需要使用一些方式对单词的数量加以限制。词表大小通常设置为10,000到100,000。以单词作为Token的另一个缺点是该模型无法学习单词的常见“词干”。例如,对于“loved”和“loving”,尽管它们有共同的词干,但模型会认为他们是两种完全不同的词。处理单词为Token问题的一种方法是使用统计的方法生成子词(Subword)。例如,单词“loved”可以被分为“ lov”和“ ed”,而“ loving”可以被分为“ lov”和“ ing”。这使模型在各类新词上有泛化能力,同时还可以减少词表大小。有许多生成Subword的技术,例如Byte Pair Encoding(BPE)。BPE获得Subword的步骤如下:准备足够大的训练语料,并确定期望的Subword词表大小;将单词拆分为成最小单元。比如英文中26个字母加上各种符号,这些作为初始词表;在语料上统计单词内相邻单元对的频数,选取频数最高的单元对合并成新的Subword单元;重复第3步直到达到第1步设定的Subword词表大小或下一个最高频数为1。要为给定的文本生成BPE,可以使用subword-nmt(https://github.com/rsennrich/subword-nmt)这个工具,具体使用方法可以参照其GitHub中的说明进行操作。下面是一个例子,其中是已经经过Tokenizer进行过处理的文本文件。# Clone from Github

git clone https://github.com/rsennrich/subword-nmt

cd subword-nmt

# Learn a vocabulary using 10,000 merge operations

./learn_bpe.py -s 10000 codes.bpe

# Apply the vocabulary to the training file

./apply_bpe.py -c codes.bpe < train.tok.file> train.tok.bpe

对数据集进行BPE后,句子可能如下所示。adjourned(休会)一词使用并不频繁,被分解为ad@@、jour、ned三部分。由于Token粒度变得更细,词表也需要随之更新。I declare resumed the session of the European Parliament ad@@ jour@@ ned on Friday 17 December 1999 , and I would like once again to wish you a happy new year in the hope that

you enjoyed a pleasant fes@@ tive period .

WMT数据集处理神经机器翻译领域国际上最常用的数据集是WMT,很多机器翻译任务基于这个数据集进行训练,Google的工程师们基于WMT16 en-de准备了一个脚本:wmt16_en_de.sh(https://github.com/google/seq2seq/blob/master/bin/data/wmt16_en_de.sh)。这个脚本先下载数据,再使用Moses Tokenizer(https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl),清理训练数据,并使用BPE生成32,000个Subword的词汇表。添加ilulaoshi,回复wmt16,获得数据集网盘链接:pre-processed WMT'16 EN-DE Data (502MB)将文件解压后,可以获得以下文件:文件名内容train.tok.clean.bpe.32000.en经过BPE处理后英语训练数据,每行一个句子。http://train.tok.clean.bpe.32000.de经过BPE处理后德语训练数据,每行一个句子。vocab.bpe.32000经过BPE处理后的词表,每行一个Token。newstestXXXX.*测试数据集,与训练集所使用的预处理方式相同,用于测试和验证。编辑于 2022-03-01 22:24神经机器翻译(NMT)自然语言处理机器翻译​赞同 18​​9 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录皮皮鲁的科技星球起于技术又不至于

沃尔玛(WMT)股票价格_行情_走势图—东方财富网

WMT)股票价格_行情_走势图—东方财富网财经|焦点|股票|新股|期指|期权|行情|数据|全球|美股|港股|期货|外汇|黄金|银行|基金|理财|保险|债券|视频|股吧|基金吧|博客|财富号|搜索全球财经快讯数据中心手机站客户端Choice数据手机买基金 牛市赚不停>行情中心指数|期指|期权|个股|板块|排行|新股|基金|港股|美股|期货|外汇|黄金|自选股|自选基金全球股市上证:- - - - (涨:- 平:- 跌:-)深证:- - - - (涨:- 平:- 跌:-)数据中心新股申购新股日历资金流向AH股比价主力排名板块资金个股研报行业研报盈利预测千股千评年报季报龙虎榜单限售解禁大宗交易期指持仓融资融券沪深港通沪股通-资金流入-深股通-资金流入-港股通(沪)-资金流入-港股通(深)-资金流入-最近访问:-​--全球指数美股行情美股吧国际期货---今开: -最高价: -成交量: -外盘: -昨收: -最低价: -成交额: -内盘: -总股本: -振幅: -换手率: -每股收益TTM: -总市值: -市净率MRQ: -市盈率TTM: -每股净资产: -美国经济数据>>美国市场快讯>>F10档案:核心必读公司概况财务分析股本股东分红派息主营构成高管研究资产负债表综合损益表现金流量表董事及股东权益我的自选更多名称最新价涨跌幅------------------------点击进入我的自选股>>>中概股行情互联网中国名称最新价涨跌幅------------------------------------点击查看更多美股行情>>> 查看最新日K周K月K拉长K线缩短K线全屏主要指标均线EXPMABOLLSARBBIRSIKDJMACDW&RDMIBIASOBVCCIROCCRBOLLRSIKDJMACDW&RDMIBIASOBVCCIROCCRBOLL行情报价最新-均价-涨跌-今开-涨幅-最高-换手-最低-总量-量比-外盘-内盘-收益TTM-PE(TTM)-净资产-市净率-流通市值-总市值-流通股本-总股本-分时成交时间价格成交量---------------------------------------知名美股涨幅榜更多名称最新价涨跌幅---------------个股资讯美股聚焦更多数据加载中...美股公告美股评论更多数据加载中...沃尔玛吧 股吧首页 | 热门个股吧 | 热门主题吧 | 更多热门美股吧名称最新价涨跌幅---------------------------------------------郑重声明:本网站所刊载的所有资料及图表仅供参考使用。投资者依据本网站提供的信息、资料及图表进行金融、证券等投资所造成的盈亏与本网站无关。本网站如因系统维护或升级而需暂停服务,或因线路及超出本公司控制范围的硬件故障或其它不可抗力而导致暂停服务,于暂停服务期间造成的一切不便与损失,本网站不负任何责任。

东方财富

扫一扫下载APP

东方财富产品

东方财富免费版

东方财富Level-2

东方财富策略版

Choice金融终端

浪客 - 财经视频

证券交易

东方财富证券开户

东方财富在线交易

东方财富证券交易

关注东方财富

东方财富网微博

东方财富网微信

意见与建议

天天基金

扫一扫下载APP

基金交易

基金开户

基金交易

活期宝

基金产品

稳健理财

关注天天基金

天天基金网微博

天天基金网微信

东方财富期货

扫一扫下载APP

期货交易

期货手机开户

期货电脑开户

期货官方网站

信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com

沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500

关于我们

可持续发展

广告服务

联系我们

诚聘英才

法律声明

隐私保护

征稿启事

友情链接

发榜!LanMT斩获2022WMT国际机器翻译大赛双料冠军 - 中国日报网

发榜!LanMT斩获2022WMT国际机器翻译大赛双料冠军 - 中国日报网

China Daily Homepage

中文网首页

时政

资讯

C财经

生活

视频

专栏

双语

原创

观天下

登录

注册

移动新媒体

站内搜索

站内搜索

China Daily Homepage

中文网首页

时政

资讯

C财经

生活

视频

专栏

双语

漫画

原创

观天下

发榜!LanMT斩获2022WMT国际机器翻译大赛双料冠军

来源:

中国网

2022-12-19 17:26 

 

 

 

分享

分享到

分享到微信

CLOSE

发榜!LanMT斩获2022WMT国际机器翻译大赛双料冠军

近日,WMT2022国际机器翻译大赛的发布排名结果,LanMT勇夺2项冠军、8项亚军。

WMT(Workshop on Machine Translation)是享誉全球的顶级机器翻译竞赛。作为全球范围内最具威望、最受关注的机器翻译评测大赛,从2006年至2022年,共成功举办17届,吸引了包括微软、字节跳动、腾讯、百度、华为、清华大学在内的诸多国内外顶级互联网公司、高等学府和科研机构的积极参与,竞争激烈。

经过激烈角逐,LanMT(提交系统名称:Lan-Bridge)表现亮眼,在训练数据少、训练难度高的小语种方向,取得了所有参赛队伍中的最好成绩:斩获【乌克兰语-英语】、【俄语-雅库特语】2项翻译任务的冠军,在【雅库特语-俄语】、【捷克语-乌克兰语】、【德语-英语】、【英语-捷克语】、【英语-克罗地亚语】、【英语-乌克兰语】、【俄语-英语】、【乌克兰语-捷克语】8项翻译任务中获得亚军!

为了构建通用翻译器,LanMT尝试从双语模型转向多语言翻译,即一个模型同时翻译多个语言对,包括低资源(例如,克罗地亚语、雅库特语)和高资源(例如,英语、中文)。在 WMT 2022 大赛上的佳绩证明,多语言翻译是构建一个通用的翻译系统、为世界各地的人们提供高质量翻译的重要途径。

通过译员团队、语言专家团队大量的人工测评、反馈和不断地实测打磨,LanMT引擎保持高速的更新迭代,在翻译质量上提升明显。近半年来,英译中的免编辑率从24%提升至29%、中译英的免编辑率从22%提升至25%。

诚然,机翻引擎的好与不好,除了数据评测之外,更重要的是用户实际使用的体验与感受。怀着让每一位用户都能零门槛享受到工业级的专业翻译服务的愿景,我们以LanMT机翻引擎为基础,打造了文档快译这一在线机翻工具。

文档快译能做什么?

轻量

没有花哨的界面,我们减去一切冗余和门槛,用简洁的设计传达信念,让用户无需登录注册即可使用基础翻译功能。同时,登陆后账户自动到账10万免费字符流量,让用户不充值,也能用。

  全面

WMT2022国际机器翻译大赛双料冠军不仅是头衔,更是LanMT引擎实力的权威认证。40项语种互译,编织四通八达的语言网络。无论是英、日、韩等常用语种,还是雅库特语、印尼语等小语种,文档快译覆盖了用户的多语种翻译需求。

  专业

机翻,但不止机翻!22年人工翻译的沉淀与打磨,只为服务于你的朝夕之间。定制化七大垂域:医药、工程、军工、汽车、航空、专利。专业术语难翻译?就让文档快译为你搞定。

  快捷

用最符合使用逻辑的交互实现零学习成本。从上传、翻译、搜索到导出,丝滑的批量操作路径轻松上手;明确的字数、页数、文件大小一目了然。一切细节的打磨,只为让快译更“快”。

  智能

机器是人的延伸。文档快译真正从用户角度出发,能够为用户提供语料导出、术语下载等功能,帮助用户轻松积累个人语料库,实现机翻译文的内化。让每一次机翻,都成为对自我的充实。

除了文档快译(Doc.MT),我们还推出了针对高校师生需求的智慧教学实训系统(PBLT)、为企事业单位提供语言资产可靠保障的多语数据管理系统(MC)、企业翻译工作的理想管理工具和协作平台——人机共译系统(MH)、基于神经网络技术的语料对齐工具(CA)等一系列针对不同用户需求的产品。

WMT2022年双料冠军是数译的一个崭新起点,未来,数译将继续致力于打造专业智能翻译系统,引领语言服务突破创新!

免责声明:该文章系我网转载,旨在为读者提供更多新闻资讯。所涉内容不构成投资、消费建议,仅供读者参考。

【责任编辑:钟经文】

COMPO

WS63a02eb2a3102ada8b2275b7

https://qiye.chinadaily.com.cn/a/202212/19/WS63a02eb2a3102ada8b2275b7.html

专题

2024年世界看两会专题

筑梦现代化 共绘新图景

京津冀协同发展10年

新时代 我在中国

最热新闻

如何大力发展低碳经济?政府工作报告提出这几点

全国首个电动汽车智慧充换电示范区建成

央行重磅发声!

同比增长8.7%,我国外贸开局良好

【世界看两会】海外专家看好中国经济:在新质生产力的推动下,中国在全球产业链中的地位将会进一步提高

全国人大代表郑永光:人工智能助力我国气象预报能力大大提升

甘肃、青海代表:约14.8万户积石山地震受灾群众将于年底前入住新居

靳东:影视作品促进两岸交流

精彩推荐

加沙停火问题上美国滥用否决权

关于我们

|

联系我们

首页

时政

资讯

财经

生活

视频

专栏

双语

独家

招聘

地方频道:

北京

天津

河北

山西

辽宁

吉林

黑龙江

上海

江苏

浙江

福建

山东

河南

湖北

湖南

广东

广西

海南

重庆

四川

云南

贵州

西藏

陕西

新疆

深圳

友情链接:

央广网

中国西藏网

中国新闻网

中国台湾网

中国经济网

中国青年网

光明网

国际在线

央视网

中国网

新华网

人民网

违法和不良信息举报

互联网新闻信息服务许可证10120170006

信息网络传播视听节目许可证0108263号

京公网安备11010502032503号

京网文[2011]0283-097号

京ICP备13028878号-6

中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。

版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn

首页

时政

资讯

财经

文化

图片

视频

双语

中文 | English

中国日报版权所有Content@chinadaily.com.cn

Skip to main content

Nasdaq+

Weekly Macro+

Scorecard

Market Activity

Market Activity

->

Stocks

Options

ETFs

Mutual Funds

Indexes

Commodities

Cryptocurrency

Currencies

Futures

Fixed Income

Global Markets

Market Regulation

->

U.S. Regulation

European Regulation

Quick Links

Real-Time Quotes

After-Hours Quotes

Pre-Market Quotes

Nasdaq-100

Symbol Screener

Online Brokers

Glossary

Sustainable Bond Network

Symbol Change History

IPO Performance

Ownership Search

Dividend History

Investing Lists

Fundinsight

Market Events

Economic Calendar

Earnings

IPO Calendar

Dividend Calendar

SPO Calendar

Holiday Schedule

Analyst Activity

Analyst Recommendations

Daily Earnings Surprise

Forecast Changes

Commodities

->

Gold

Copper

Crude Oil

Natural Gas

Nasdaq Data

Statistical Milestones

Total Returns

Daily Market Statistics

Most Active

See All Market Activity

->

News + Insights

News and Insights

->

Markets

->

Companies

->

Cryptocurrency

->

Technology

->

Personal Finance

->

Financial Advisors

->

Topics

Stocks

Options

Earnings

Blockchain

Commodities

Investing

Features

World Reimagined

Smart Investing

Market Makers by Phil Mackintosh

TradeTalks

Nasdaq Watch

World Reimagined Podcast

Breakthrough Economy

Meet Me @ MarketSite

Innovation Answered

Live From MarketSite

See All News + Insights

->

Solutions

Access Global Markets

->

Public Markets (Listings)

North American Markets

European Markets

Private Markets

Nasdaq Fund Secondaries

Featured Solutions

Nasdaq's IPO Process

ETF Listings

Nasdaq-100 Index Options

Derivatives Academy

Drive Growth with Insights

Investment Intelligence

Market & Alternative Datasets

Nasdaq Global Indexes

Featured Solutions

Nasdaq Data Link

Nasdaq-100 Index

Nasdaq Dorsey Wright

Nasdaq eVestment™

Nasdaq Solovis

Advance with Technology

Financial Technology

Marketplace Technology

Anti-Financial Crime Technology

Featured Solutions

Nasdaq Trade Surveillance

Trading & Matching Technology

Nasdaq Marketplace Services Platform

Nasdaq Risk Platform

Accelerate Your Strategy

Governance Solutions

Corporate ESG Solutions

Investor Relations Intelligence

Featured Solutions

Nasdaq Boardvantage®

Board Evaluations

Nasdaq IR Insight®

Nasdaq Metrio

See All Solutions

->

About

Our People

->

Board of Directors

->

Careers

->

Nasdaq Newsroom

->

Contact

->

Quick Links

Nasdaq MarketSite

Investor Relations

ESG Reporting Guide

European Markets

Nasdaq Nordic Foundation

Nasdaq Thought Leadership

Nasdaq Initiatives

Purpose

TotalMarkets

Public Policy Advocacy

ESG at Nasdaq

Nasdaq Entrepreneurial Center

Nasdaq Ventures

Nasdaq and the Cloud

See All About

->

Nasdaq+

About Nasdaq+

->

Dashboard

->

Weekly Macro+

->

Log in

Sign In

Data is currently not available

Search Nasdaq.com

Clear

Search

We couldn’t find any results matching your search.

Please try using other words for your search or explore other sections of the website for relevant information.

We’re sorry, we are currently experiencing some issues, please try again later.

Our team is working diligently to resolve the issue. Thank you for your patience and understanding.

Show more results ->

Find a Symbol

When autocomplete results are available use up and down arrows to review and enter to select. Touch device users, explore by touch or with swipe gestures.

Edit my quotes

Walmart Inc. Common Stock (WMT)

Nasdaq Listed

Nasdaq 100

Data is currently not available

Bid:

x

Ask:

x

Volume:

0

Add to Watchlist

Add to Portfolio

Quotes

Summary

Live

Real-Time

Live

After-Hours

Live

Pre-Market

Live

Charts

Live

NEWS & ANALYSIS

News

Live

Press Releases

Live

Analyst Research

Live

Dividend History

Historical Quotes

Historical NOCP

Financials

Earnings

P/E & PEG Ratios

Option Chain

Institutional Holdings

Insider Activity

SEC Filings

Revenue EPS

1D

5D

1M

6M

YTD

1Y

5Y

MAX

Data is currently not available

PreviousClose

 

Key Data

Data is currently not available

Label

Value

See More

Bid Price and Ask Price

The bid & ask refers to the price that an investor is willing to buy or sell a stock. The bid is the highest amount that a buyer is currently willing to pay, whereas the ask is the lowest

... Read More.

amount that a seller is currently willing to sell. The numbers next to the bid/ask are the “size”. The bid size displays the total amount of desired shares to buy at that price, and the ask size is the number of shares offered for sale at that price. The data displayed in the quote bar updates every 3 seconds; allowing you to monitor prices in real-time.

The bid-ask spread can indicate a stock’s liquidity, which is how easy it is to buy and sell in the marketplace. Often, a smaller spread suggests higher liquidity, meaning more buyers and sellers in the market are willing to negotiate. In contrast, a larger spread suggests lower liquidity, as there are fewer investors willing to negotiate. You can use the bid-ask spread to determine whether to place a  market order or limit order when trading, helping you to optimize your price and have a successful order execution.

Real-time bid and ask information is powered by Nasdaq Basic, a premier market data solution. This data feed is available via Nasdaq Data Link APIs; to learn more about subscribing, visit Nasdaq Data Link's products page.

... Read Less.

Label

Value

Powered by Nasdaq Data Link

Analyze your stocks, your way

Leverage the Nasdaq+ Scorecard to analyze stocks based on your investment priorities and our market data.

Subscribe Now ->

Data is currently not available

Data is currently not available

*Data is provided by Barchart.com. Data reflects weightings calculated at the beginning of each month. Data is subject to change. 

**Green highlights the top performing ETF by % change in the past 100 days.

News

See All News

Data is currently not available

About

Key Executives

Name

Title

Trending

Data is currently not available

Real-time Data is provided using Nasdaq Last Sale Data

 

Data provided by Nasdaq Data Link, a premier source for financial, economic and alternative datasets. Data Link's cloud-based technology platform allows you to search, discover and access data and analytics for seamless integration via cloud APIs. Register for your free account today at data.nasdaq.com.

Smart Investing

Whether you're buying your first share or investing for the long-haul, we have you covered. Delivered Mondays.

Thanks for submitting!

Investor Relations

Contact

Careers

Advertise

Mobile Apps

Nasdaq MarketSIte

Trust Center

Newsletters

Chrome Extension

Privacy Policy

Cookies

Legal

Cookies Settings

© 2024, Nasdaq, Inc. All Rights Reserved.

My Quotes

My Quotes

Watchlist

Portfolio

Add/Edit Symbols

View as Table

Add symbols now or see the quotes that matter to you, anywhere on Nasdaq.com. Start browsing Stocks, Funds, ETFs and more asset classes.

/

Add/Edit Symbols

Edit Watchlist

Your Watchlist is empty.

Add/Edit Symbols

Create your Watchlist to save your favorite quotes on Nasdaq.com. Log in or create a free account to get started.

/

Outsmart the market with Smart Portfolio analytical tools powered by TipRanks. Go to Smart Portfolio

Back

Add a symbol to your watchlist

Most Active

Data is currently not available

Edit My Quotes

Add up to 25 symbols

To add symbols:

Type a symbol or company name. When the symbol you want to add appears, add it to My Quotes by selecting it and pressing Enter/Return.

Copy and paste multiple symbols separated by spaces.

These symbols will be available throughout the site during your session.

Save data

Data is currently not available

Your symbols have been updated

You'll now be able to see real-time price and activity for your symbols on the My Quotes of Nasdaq.com.

Continue

Data is currently not available

Edit Watchlist

Add up to 20 symbols

To add symbols:

Type a symbol or company name. When the symbol you want to add appears, add it to Watchlist by selecting it and pressing Enter/Return.

Copy and paste multiple symbols separated by spaces.

These symbols will be available throughout the site during your session.

Save data

Data is currently not available

Opt in to Smart Portfolio

We are currently experiencing technical difficulties, please try again.

Smart Portfolio is supported by our partner TipRanks. By connecting my portfolio to TipRanks Smart Portfolio I agree to their Terms of Use.

Submit

Cancel

首次赢得WMT机器翻译大赛,Meta证明单个多语言模型强于双语模型_腾讯新闻

首次赢得WMT机器翻译大赛,Meta证明单个多语言模型强于双语模型_腾讯新闻

首次赢得WMT机器翻译大赛,Meta证明单个多语言模型强于双语模型

机器之心报道

编辑:杜伟、陈萍

Meta 提出的单个多语言模型,首次超过最佳双语模型,赢得了著名的 WMT 竞赛。

机器翻译(MT)领域的最终目标是构建一个通用的翻译系统,以帮助用户获取信息并更好地相互联系。但是 MT 领域需要解决实际应用中遇到的基本局限性,未来才能更好的使用。

如今,大多数 MT 系统使用双语模型组,这通常需要为每个语言对和任务提供大量标记示例。不幸的是,这种方法对于训练数据很少的语言(例如冰岛语、豪萨语)来说失败了。双语模型组的高度复杂性使得它无法扩展到大型实际应用程序中,因为每天有数十亿人用数百种语言发布信息。

为了构建通用翻译器,来自 Meta 的研究者认为 MT 领域应该从双语模型转向多语言翻译(Multilingual translation)——多语言模型即一个模型可以同时翻译许多语言对,包括对低资源语言对(例如,冰岛语到英语的翻译)和高资源语言对(例如,英语到德语的翻译)的翻译。

论文地址:https://arxiv.org/pdf/2108.03265.pdf

代码地址:https://github.com/pytorch/fairseq/tree/main/examples/wmt21

由于多语言翻译更简单、更容易扩展、并且更适合低资源语言等特点,更容易受到研究者的青睐。但直到现在,多语言翻译无法为高资源语言对提供与双语模型(经过特殊训练的)一样好的结果。因此,提供跨多种语言的高质量翻译通常涉及使用单个双语模型的组合,而对于低资源语言来说,实现还比较困难。

现在,Meta 的研究取得了突破性的进展:首次单一的多语言模型在 14 个语言对中有 10 个超过了经过特别训练的最好的双语模型,赢得了 WMT(一个著名的 MT 比赛)比赛。该单一多语言模型为低资源和高资源语言提供了最佳翻译,表明多语言方法确实是 MT 的未来。

Yann LeCun 在推特上对这一研究进行了宣传:

这项研究建立在先前研究之上,提高了低资源语言的翻译质量。然而,当添加具有各种资源的语言时,随着更多语言的添加,一种模型将变得不堪重负,因为每种语言都具有独特的语言属性、脚本和词汇。当高资源语言受益于大型多语言模型时,对低资源语言对来说有过拟合的风险。

上图为 2017-2021 年 WMT 竞赛时间表,表中展示了英语到德语翻译的性能质量随时间的进展,由结果可得多语言模型现已超过了双语模型。其中 En-De(English to German) 被公认为最具竞争力的翻译方向。

Meta 的多语言模型是 MT 中一个激动人心的转折点,因为它表明——通过大规模数据挖掘、扩展模型容量和更高效的基础设施方面的新进展——多语言模型有可能在高资源和低资源任务上实现更好的性能。这一技术使研究者更接近于构建一个通用翻译器。

大规模数据挖掘

为了训练 WMT 2021 模型,研究者构建了两个多语言系统:任何语言到英语(any-to-English) 和英语到任何语言(English-to-any),方法采用并行数据挖掘技术。

Meta 提出的模型与提交给 WMT '21 的最佳模型的性能比较。图中数据为 WMT'21 测试集的 BLEU 得分。

由于任何语言的单语数据量远远超过并行数据量,因此 Meta 利用可用的单语数据来最大化 MT 系统的性能至关重要。回译(back- translation)是单语数据最常见的技术之一,Meta 采用这一技术赢得了 2018 年和 2019 年 WMT 英语对德语新闻翻译任务。在本次研究中,Meta 添加了包含来自所有八种语言的数亿个句子的大规模单语数据。并且过滤了可用的单语数据以减少噪声量,然后使用可用的最强多语言模型对它们进行回译。

扩展模型的能力

除了通过回译扩展数据大小之外,Meta 还将模型大小从 150 亿参数扩展至 520 亿参数,以增加多语言模型架构的容量。但是如果没有 Meta 六月推出的名为「Fully Sharded Data Parallel」的 GPU 内存节省工具,所有这些扩展工作都不可能实现。该工具使得大规模训练的速度是以往方法的 5 倍。

Fully Sharded Data Parallel(FSDP)。

更高效的基础架构

由于多语言模型自身就有竞逐容量的属性,因此它们必须在共享参数和不同语言的专门化之间取得平衡。按照比例扩展模型大小导致计算成本无法支撑。

WMT 2021 开发集的 BLEU 分数。

Meta 使用了一种替代方案来利用条件式计算方法,该方法仅为每个训练示例激活模型的一个子集。具体来说,Meta 训练了稀疏门混合专家(Sparsely Gated Mixture-of-Expert)模型,每个 token 基于学习到的门函数馈入到 top-k 个专家前馈(FeedForward)块。他们使用 Transformer 架构,其中每个 alternate Transformer 层中的前馈块都替换成稀疏门混合专家层,后者在编解码器中有 top-2 个门。因此,每个输入序列仅使用所有模型参数的一个子集。

具有混合专家层的 Transformer 编码器的扩展。

这些模型既可以允许在高资源方向从增加的专家模型容量中受益,也能够通过共享模型容量迁移至低资源方向。

Meta 相信,他们在 WMT 2021 上取得的成绩巩固了多语言翻译作为构建单一通用翻译系统的重要途径。他们还证明了,对于高资源和低资源语言,单个多语言模型可以提供较双语模型更高的翻译质量,并且更易于针对「新闻文章翻译」等特定任务进行微调。

这种「单个模型适用多种语言」的方法可以简化现实世界应用中翻译系统的开发,还有可能实现用一个模型替换数千个模型,从而为世界上的每个人带来新的应用和服务。

参考链接:

https://ai.facebook.com/blog/the-first-ever-multilingual-model-to-win-wmt-beating-out-bilingual-models/

第一期:快速搭建基于Python和NVIDIA TAO Toolkit的深度学习训练环境

英伟达 AI 框架 TAO(Train, Adapt, and optimization)提供了一种更快、更简单的方法来加速培训,并快速创建高度精确、高性能、领域特定的人工智能模型。

11月15日19:30-21:00,英伟达专家带来线上分享,将介绍:

NVIDIA TAO Toolkit 的独到特性

快速部署 NVIDIA TAO Toolkit

利用 NVIDIA TAO Toolkit 快速搭建深度学习训练环境

利用 TAO Toolkit 快速训练部署目标检测模型

WMTWatch

WMTWatch

跳到内容

經典系列

軍事系列

Green-Label

特价

联乘

订制

配件

Sale

登录

购物车 / USD$0.00

购物车里没有产品

返回商店

繁體

简体

English

日本語

购物车

 

经典系列

 

 

订制

 

军事系列

 

快捷连结

商店

联络我们

关于我们

邮递服务

有关退货事宜

联络我们

info@wmtwatches.com

关注我们

关注我们

Copyright 2024 © WMTWatch All rights Reserved. Supported by Arestos

搜索:

經典系列

軍事系列

Green-Label

特价

联乘

订制

配件

Sale

登录

繁體

简体

English

日本語

登录

用户名或电邮地址 *

密码 *

登录

记住我

忘记密码?

注册

邮箱地址 *

Confirm Email Address *

密码 *

Subscribe to our newsletter

注册