Lilt:一个为翻译专家开发的人工智能翻译平台

Lilt:一个为翻译专家开发的人工智能翻译平台
2021年06月01日 14:24 科技有分寸

谁知道 AI 会变成这样一个文字匠。但不久前,Spence Green 和 John DeNero 对专业翻译人员尚未使用的最新最好的自然语言处理研究感到困惑。

斯坦福大学毕业生开始改变这种状况。2015 年,他们共同创立了 Lilt,一个用于翻译和本地化服务的 AI 软件平台。

自然语言处理的应用在过去十年中爆炸式增长,因为由 GPU 驱动的递归神经网络的进步提供了更好的 AI。这使初创公司能够提供白标语音服务,语言导师和聊天机器人等服务。

Lilt 的 AI 软件平台是为翻译专家开发的,用于本地化项目和培训网络。混合人机平台的建立是为了提高翻译速度和特定项目的领域专业知识。

Lilt 软件就像 Google 自动完成功能,用于填写搜索查询。该软件允许用户以一种语言查看每行文本并将其翻译成另一种语言,但它提供了翻译人员可以接受,拒绝或改变的全部翻译建议。

当翻译人员与文本进行交互时,它有助于训练神经网络并立即进入软件。「我们的每个用户都有一套不同的参数,这些参数都经过培训,」DeNero 说。

DeNero 表示,Lilt 软件 - 可用于 30 多种语言 - 可以将翻译项目的速度提高五倍。

Lilt 是 NVIDIA Inception 的成员,这是一个虚拟加速器程序,可帮助初创公司更快地进入市场。Lilt 的客户包括 Canva,Zendesk 和 Hudson's Bay Company。

变压器上的 NLP

根据其创始人的说法,Lilt 在自然语言处理方法上的独特之处在于其部署了基于下一代深度神经网络的服务。Lilt 利用被称为变形金刚神经网络架构的 RNN 的替代品,这是一种模型,该模型是 2017 年 12 月 Google Brain 的研究(Attention Is All You Need)所开发的。

变换器架构与 RNN 的顺序性质不同,后者对句子中的最后一个单词给予更多权重以确定下一个单词。相反,在每个步骤中,它应用所谓的自我关注技术,该技术基于与句子中的所有单词的比较得分来确定下一个单词。

这种新方法被认为是理解语言的理想方法。该论文的作者表示,该架构可实现更多并行化,提供更高水平的翻译质量。

NVIDIA GPU 最近设置了 AI 性能记录,包括仅用 6.2 分钟训练 Transformer 神经网络。

快速,个性化的翻译

该架构为翻译人员提供了快速,个性化的软件平台。这对于 Lilt 来说非常重要,因为它具有许多不同的定制用户配置文件,这些用户配置文件正在进行计算并同时对软件进行培训。

Dened 表示,当人们打字时,Lilt 会进行翻译互动,所以他们必须在 300 毫秒内快速完成。这意味着 Lilt 的服务必须维护一些执行静态功能的神经网络和其他需要实时调整的神经网络。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部