第三届全国翻译技术大赛第六期培训已经结束了,没来得及参与直播的小伙伴们不要着急,培训直播回放、内容回顾及模拟题都在这里,欢迎大家学习!
为帮助翻译从业者、爱好者及高校师生进一步了解翻译技术,同时为第三届全国翻译技术大赛参赛者提供备赛参考,中国翻译协会、中国外文局翻译院、天津外国语大学于5月启动第三届全国翻译技术大赛系列培训。
第六期培训邀请华为机器翻译技术专家谢凝和百度翻译产品负责人万星分别以《大模型机器翻译和译后编辑》和《大模型翻译技术及专业译后编辑》为题进行讲座。讲座概要如下:
大模型机器翻译和译后编辑
机器翻译和大模型简介
沃伦·韦弗(Warren Weaver)在1949年发表的《翻译》(Translation)备忘录中正式提出机器翻译的设想以及四种可能的实现思路:第一种是在上下文中进行语义消歧;第二种是对语言进行基于逻辑的句法或语义分析;第三种基于香农(Claude Shannon)的信息论(information theory),从密码学角度提出统计语义处理方法;第四种是实现语言之间的通用性表达。在神经网络时代,这四种思路已基本实现。
机器翻译的语言建模旨在解决通用的、基于上下文的语言表示问题,有整数编码、独热编码(One-Hot Encoding)和词嵌入(Word Embedding)等实现方式。Transformer架构通过自注意力机制动态捕获句子级上下文关联,最终形成篇章级语义表示。2017年问世的Transformer模型最初服务于机器翻译任务,现已成为大模型通用架构。
大模型在机器翻译任务上的应用
通过在预训练阶段提升多语言数据比例、提供海量机器翻译双语平行数据,并采用面向多语言生成任务的训练策略,可提升大模型的多语言表示对齐能力,让大模型在多语言机器翻译任务上表现更好。目前,大模型已经能够处理简单机器翻译任务,正在探索处理篇章、同传等复杂翻译任务。在出版物翻译等对译文质量要求较高的场景中,技术研发人员正尝试基于大模型构建“慢思考”范式的翻译智能体,以进一步提升翻译质量。
大模型解决了语义理解和消歧、翻译鲁棒性、篇章翻译、翻译风格迁移等机器翻译难点,但依然存在翻译幻觉严重、翻译速度较慢、翻译质量优化成本较高等痛点。
针对基于大模型的译后编辑,新手要注意以下几点:一是了解大模型和小模型翻译的区别、各自优势和能力边界;二是了解上下文学习(In-Context Learning)的重要性,做好提示词验证;三是了解大模型对标记的识别和还原能力;四是除翻译外,还可尝试将大模型应用于译前风格定义、术语提取和一致性保证、译中润色、译后质量评估等多个环节。
有编程基础的人员可采用高阶策略:一是设计带变量和参数的提示词,以更好匹配应用场景、灵活调用知识库;二是设计并搭建多智能体系统,通过多模型协同赋能完整翻译流程,包括翻译、反思、润色、评估等,还可通过智能体使用检索增强生成(RAG)技术、调用第三方工具;三是基于个人或团队的高质量句子级和篇章级数据、质量评估数据等对大模型进行微调(LoRA)。
大模型与翻译工具的结合
以计算机辅助翻译(CAT)为例,与大模型结合后,可支持译前原文改写、翻译风格设置、机器翻译质量预估(Machine Translation Quality Estimation, MTQE)、自动译后编辑(Automatic Post-editing, APE)等,同时可利用上下文学习能力优化译文、实现AI问答等,在译后则可以生成质量报告、进一步迭代学习。
大模型翻译技术及专业译后编辑
人工智能技术演进
聚焦特征提取和规则制定的主体以及模型通用性等关键问题,人工智能技术发展经历了规则系统、统计机器学习、深度学习、大模型四个阶段。大语言模型可处理几乎所有与自然语言处理相关的任务,如分词、句法分析、文本分类等。
大模型翻译技术的特点
大模型翻译具备深度语义理解、灵活交互、知识增强等技术特点。在深度语义理解方面,大模型翻译技术通过大规模预训练,学习海量知识,能深入理解文本隐含语义、识别并更正原文错误,生成更精准自然的译文;在灵活交互方面,大模型翻译在译前、译中、译后各环节均可实现互动,如译前指定领域、风格,译中进行术语溯源查证,译后审校、润色等,提升了翻译的可控性和精准度,可满足不同场景的个性化需求;在知识增强方面,大模型翻译可借助检索增强生成技术集成外部知识(包括用户上传的语料库、互联网实时内容等),确保术语的一致性、专业性,还能高效匹配相似句段,提升翻译质量。
随着技术的迭代升级,用户对专业翻译的需求逐渐呈现高质量、个性化、重交互等特点。在高质量方面,用户既对译文准确性要求高,也对垂直领域专业文档的排版格式提出更高要求;在个性化方面,用户不仅对翻译风格等有个性化需求,还需要将私有知识集成至翻译系统;在重交互方面,用户不仅要沟通译法,还要咨询内容。
牛刀小试
关于沃伦·韦弗(Warren Weaver)在1949年发表的《翻译》(Translation)备忘录,以下哪项说法是错误的?
A.该备忘录提出了通过上下文解决语义歧义的机器翻译思路。
B.该备忘录提出了对语言进行基于逻辑的句法或语义分析的机器翻译思路。
C.该备忘录提出了统计语义处理方法。
D.该备忘录提出了机器翻译的速度优化方式。
神经网络机器翻译(Neural Machine Translation, NMT)的模型训练最依赖以下哪类数据?
A.双语对齐数据。
B.单语数据。
C.多语言数据。
D.多模态数据。
大模型在翻译任务中的优势主要体现在以下哪些方面?
A.篇章翻译能力更强,可生成与原文格式一致的译文。
B.语义理解能力更强,网络词汇和口语化表达的翻译效果更好。
C.具备一定降噪能力,在原文存在少量拼写错误时仍能生成可用译文。
D.逻辑推理与知识整合能力更强,能在翻译过程中结合上下文纠正原文明显的常识性或逻辑错误。
要更好完成翻译任务,大模型需要依赖以下哪些选项?
A.基于海量无标注数据的自监督预训练。
B.Transformer架构与注意力机制。
C.端到端的深度神经网络表示学习。
D.少量有监督的双语数据微调。
以下哪些是大模型在翻译任务中面临的挑战?
A.翻译幻觉严重。
B.对训练资源需求高。
C.相较于神经机器翻译,速度较慢。
D.无法生成与原文格式一致的译文。
人工智能技术的发展大致经历了以下哪些阶段?
A.规则系统→深度学习→统计机器学习→大模型
B.规则系统→统计机器学习→深度学习→大模型
C.统计机器学习→规则系统→深度学习→大模型
D.统计机器学习→深度学习→规则系统→大模型
在人工智能技术发展过程中,哪一阶段实现了从原始数据中自动提取数据特征?
A.规则系统阶段。
B.统计机器学习阶段。
C.深度学习阶段。
D.大模型阶段。
以下哪项技术可以通过搜索外部知识提升大模型翻译质量?
A.交互式实时编辑。
B.增量式神经网络训练。
C.检索增强生成。
D.计算机辅助翻译。
如何提升大模型的多语言机器翻译表现?
A.提升预训练阶段的多语言数据比例。
B.利用海量双语平行数据进行监督微调。
C.应用针对多语言的参数高效微调技术。
D.采用面向多语言生成任务的训练策略。
Transformer架构对大模型的核心贡献是什么?
A.首次引入词嵌入技术,进行情感分析。
B.通过自注意力机制动态捕获上下文关联。
C.首次实现神经网络机器翻译,翻译质量提升。
D.内置多语言对齐机制,可理解多种语言。
大赛报名进行中
报名时间
2025年4月25日至2025年6月25日
*倒计时五天!
报名方式
扫描二维码报名
点击报名链接报名
更多大赛培训信息
关注【中国外文局翻译院智能翻译实验室】视频号,预约培训直播
*第八期培训提前至6月23日(周一)
点击下方链接了解培训详细安排