IT之家 12 月 26 日消息,腾讯研究院最新推出了 DRT-o1 系列模型,主要通过长思维链(long chain-of-thought,简称 CoT),更能理解比喻和隐喻等,从而提高文学作品的翻译质量。
IT之家注:神经机器翻译(NMT)在处理日常文本翻译方面已取得显著进展,但在翻译文学作品时,特别是隐喻和明喻等修辞手法时,仍面临巨大挑战。
这些表达通常蕴含深厚的文化和语境含义,简单的直译往往无法准确传达其内涵,而腾讯开发的 DRT-o1 系统,为解决这一难题提供了新的思路。
研究人员从古腾堡(Project Gutenberg)计划中选取 400 本公共领域英文书籍,提取 577600 个句子,并筛选出 63000 个包含明喻和隐喻的句子,用于训练模型进行“深度思考”。
DRT-o1 采用了一种创新的多智能体框架,包含翻译员、顾问和评估员三个角色。翻译员负责初步翻译,顾问提供修改建议,评估员则根据预设指标对翻译质量进行评分,通过反复迭代,不断提升翻译质量。
翻译精炼循环:在精炼循环中,顾问评估前一步的翻译并提供反馈,评估者根据预定义的评分标准给出整体评分。翻译者根据反馈和评分提供新的翻译。当评分达到预定义的阈值或迭代次数达到最大值时,循环停止。
最终的翻译结果会由 GPT-4o 进行润色,确保流畅性和可读性,最终数据集包含 22264 个经过深度思考的机器翻译样本。
这句话中的“struck her all of a heap”是一个成语,表示某事对她产生了强烈的影响。DRT-o1 模型通过长链思考过程,最终将其翻译为: