Skip to content

Commit f8ae81b

Browse files
authored
Update README.md
1 parent f76ee6e commit f8ae81b

1 file changed

Lines changed: 23 additions & 1 deletion

File tree

README.md

Lines changed: 23 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@
1212
1313
由于市面上的翻译软件越做越烂,作者一怒之下开发出了自用的翻译软件——LingZero!
1414

15-
卡片式悬浮窗设计,可以任意拖动,点击窗口外部即可关闭。截屏翻译+离线翻译+复制翻译,真正做到极简、无感、丝滑流畅。左键点击即可对比原文和译文,右键复制文本。0切屏、0等待,保护心流状态,完全为英文文献阅读而设计!
15+
卡片式悬浮窗设计,可以任意拖动,点击窗口外部即可关闭。截屏翻译+离线翻译+复制翻译,无需注册登录、无需充会员,真正做到极简、无感、丝滑流畅。左键点击即可对比原文和译文,右键复制文本。0切屏、0等待,保护心流状态,完全为英文文献阅读而设计!
1616

1717
## ✨ 核心功能
1818

@@ -28,6 +28,28 @@
2828

2929
\* *使用教程及快捷键配置见`config.ini`,如不习惯可自行修改*
3030

31+
## 💯 翻译质量
32+
33+
以 Attention Is All You Need 前三句话为例:
34+
35+
> The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely.
36+
37+
将各个软件的翻译结果列举如下,供用户对比:
38+
39+
LingZero-腾讯api:主要的序列转换模型基于复杂的循环或卷积神经网络,其中包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一个新的简单的网络架构,Transformer,完全基于注意力机制,完全免除递归和卷积。
40+
41+
LingZero-离线:主导序列转录模型基于复杂的反复或演化神经网络,其中包括一个编码器和一个解码器. 性能最好的模型也通过注意机制连接编码器和解码器. 我们提出一个新的简单的网络架构,即变形器, 完全基于关注机制, 完全不重复和演变。
42+
43+
Chatgpt 3.5:主流的序列转换模型通常基于复杂的循环神经网络(RNN)或卷积神经网络(CNN),这些模型包括一个编码器和一个解码器。性能最好的模型还通过注意力机制将编码器和解码器连接起来。我们提出了一种全新的、结构简单的网络架构——Transformer,它完全基于注意力机制,彻底摒弃了循环和卷积结构。
44+
45+
Deepseek-R1:主流的序列转导模型基于复杂的循环或卷积神经网络,这些网络通常包含编码器和解码器结构。性能最佳的模型还通过注意力机制连接编码器和解码器。我们提出了一种名为Transformer的新型简单网络架构,该架构完全基于注意力机制,彻底舍弃了循环与卷积结构。
46+
47+
文心一言4.5:主流的序列转换模型基于复杂的循环神经网络或卷积神经网络构建,这些网络包含编码器(encoder)和解码器(decoder)两部分。性能最优的模型还通过注意力机制(attention mechanism)将编码器和解码器连接起来。我们提出了一种全新的简单网络架构——Transformer,它完全基于注意力机制构建,彻底摒弃了循环结构和卷积操作。
48+
49+
有道翻译:主流的序列转换模型基于复杂的循环神经网络或卷积神经网络,这些网络包含编码器和解码器。表现最佳的模型还通过注意力机制将编码器和解码器连接起来。我们提出了一种新的简单网络架构——Transformer,它完全基于注意力机制,摒弃了循环和卷积。
50+
51+
Deepl:主导的序列转换模型基于复杂的循环或卷积神经网络,这些网络包含编码器和解码器。性能最佳的模型还通过注意力机制将编码器和解码器连接起来。我们提出了一种新的简单网络架构——Transformer,该架构仅基于注意力机制,完全摒弃了循环和卷积。
52+
3153
## ✅ 推荐使用的场景或用户
3254

3355
- 希望阅读英文新闻,缩小语言问题带来的信息差。

0 commit comments

Comments
 (0)