免费、本地运行、零依赖、零 LLM。检测 + 改写一步到位。
./humanize rewrite text.txt -o clean.txt --compare💼 工作汇报体(166 字)
改写前 🔴 96/100 VERY HIGH:
随着业务的不断发展,本季度团队在多个层面取得了显著进展。值得注意的是,通过深度优化业务流程,我们不仅全方位提升了工作效率,更进一步赋能了公司核心战略,充分体现了多维度协同的价值。
首先,技术团队聚焦核心系统的稳定性建设,持续推动业务长效发展。其次,产品团队基于用户洞察,打造了更具竞争力的解决方案。综上所述,团队凝聚力得到进一步增强,为下一季度的发展奠定了坚实基础。
改写后 🟢 31/100 MEDIUM(降 65 分):
现在,本季度团队在多个层面做到了可观进展,同时也进一步支持了公司核心战略,充分体现了多个方面协同的价值。注意,通过深度优化业务流程,我们多方面提升了工作效率。成效不小。
技术团队聚焦核心系统的稳定性建设。持续推动业务长效发展。说到底,团队凝聚力得到深入增强,为下一季度的发展奠定了坚实基础,另外,产品团队基于用户洞察,打造了更具竞争力的解决方案。颇有看点。
零注册、零付费、零联网、零 LLM、零 API Key —— 本地几秒到几十秒跑完。
更多样本(学术 / 通用 / 小红书 / 长篇博客)见下方「改写前后对比」。
改写前 🔴 98分:
随着信息技术的不断发展,人工智能在教育领域的应用正在日益深化,呈现出多维度、全方位的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。
值得注意的是,近年来人工智能赋能教育已成为学界关注的焦点。研究表明,智能化系统通过深度融合大数据分析与机器学习算法,能够全方位地评估学生学习状况,从而实现真正意义上的因材施教。不难发现,这种新型教学模式正在推动教育生态的深度变革。
综上所述,随着技术的不断发展,人工智能必将在教育领域发挥越来越重要的作用,为构建高质量教育体系提供有力支撑。由此可见,深入研究该领域具有广阔的发展前景。
改写后 🟡 42分:
现在,人工智能在教育领域的应用正在日益深化,呈现出各个层面、多方面的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。
注意,这几年人工智能促进教育现在是学界关注的焦点。从已有研究来看,智能化系统通过融入大数据解读与机器学习算法,能够各维度地评估学生学习状况,这样一来实现真正意义上的因材施教,可以看到,这种新型教学模式,正在推动教育体系的深度变革。前景看好。
说到底,眼下,人工智能必将在教育领域发挥日渐主要的作用,为构建高质量教育系统呈上有力支撑。看得出,深入探究该领域,享有广阔的发展前景。
改写前 🔴 98分:
综上所述,人工智能技术在教育领域具有重要的应用价值和广阔的发展前景。值得注意的是,随着技术的不断发展,AI 将在个性化学习、智能评估和自适应教学等方面发挥越来越重要的作用。
首先,人工智能能够助力教师进行精准教学。通过大数据分析和深度学习算法,AI 系统可以全方位地了解每个学生的学习特点,从而实现真正意义上的因材施教。
改写后 🟡 38分:
总之,人工智能技术在教育领域,具有重要的应用价值和广阔的发展前景。注意,近来,AI 将在个性化学习、智能评估和自适应教学等方面发挥日渐重要的作用。
人工智能能够促进教师进行精准教学。凭借大数据解读和深度学习算法,AI 系统可以多方面地了解每个学生的学习特点,这样一来实现真正意义上的因材施教。
老实说,智能评估系统亦可各个层面地评判学习者的综合素质,不仅关注知识掌握程度,更注重功底的培养和素质的提升,还有,自适应学习平台能够根据学生的实时表现动态调整学习路径,为每位学习者呈上个性化的学习体验。空间不小。
改写前 🔴 95分:
在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义。值得注意的是,通过合理规划和科学管理时间,不仅能够显著提升工作效率,更能够实现工作与生活的完美平衡,从而全方位提升整体生活质量。
首先,制定明确的目标是时间管理的基础。一个清晰的目标能够赋能我们的日常决策,帮助我们更好地分配时间和精力。
改写后 🟢 14分:
绝了绝了🧸!分享一个~
其实,在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义,注意,凭借合理规划和科学管理时间💖。
不仅能够可观提升工作效率,更能够实现工作与生活的完美平衡,因而多方面提升整体生活质量🍃!制定明确的目标,是时间管理的基础。
一个清晰的目标能够促进我们的日常决策,帮助我们更太好了地分配时间和精力,避免在不重要的事情上浪费宝贵的时间资源💫。
很明显,那些在时间管理上取得上佳成效的人,无一例外都拥有清晰的目标体系!势头不错💖。
改写前 🔴 86分(节选):
从程序员转产品经理,第一年学到的三件事
在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情。在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变……
一、沟通能力的重要性
程序员通常专注于技术细节和实现方式,他们与计算机打交道的时间往往多于与人交流。然而,作为产品经理,沟通能力成为我的一项核心技能……
案例:在一个项目中,我们需要开发一款新的移动应用。在项目初期,我意识到开发团队和设计团队在理解需求上有分歧……
改写后 🟡 42分(节选):
从程序员转产品经理,第一年学到的三件事
在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情,在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变。以下是我第一年里最重要的三件事。以及一些具体案例和反思。在这个过程中,我学到了许多宝贵的经验,潜力不小。
一、沟通能力的重要性
程序员通常专注于技术细节和实现方式。他们与计算机打交道的时间往往多于与人交流。在这个角色中,我需要与开发团队、设计师、市场营销团队以及客户进行频繁的交流。
然而,作为产品经理,沟通功底成为我的一项核心技能,对我来说,约莫,这意味着我必须调整自己的沟通风格,以便在不同的背景下有效传达信息。颇有看点。
完整长文本及输出请见 examples/sample_long_blog.txt。
所有示例都在 examples/ 目录,可直接复现。
本项目的检测算法不是拍脑袋设的,每一条特征都对应一篇 paper 或研究发现:
| 技术 | 来源论文 / 数据集 | 作用 |
|---|---|---|
| HC3-Chinese 校准 | Hello-SimpleAI/chatgpt-comparison-detection | 12,853 对人类/ChatGPT 真实问答,所有阈值在此数据集 300+300 样本上校准 |
| DivEye 惊奇度 | Basani & Chen, TMLR 2026 | 字符级 surprisal 时间序列的 skew/kurtosis/spectral flatness |
| GLTR rank 分桶 | Gehrmann et al., ACL 2019 | AI 倾向选 top-10 概率字,人类更分散 |
| Fast-DetectGPT | Bao et al., ICLR 2024 | 局部曲率:AI 文本在模型预测下曲率低 |
| Binoculars | Hans et al., ICML 2024 | 两个模型 perplexity 比值区分 AI / 人类 |
| MPU (AIGC_detector_zhv2) | Tian et al., ICLR 2024 | 中文 AIGC detector 的 PU learning 范式 |
| Ghostbuster 多尺度 ngram | Verma et al., NAACL 2024 | 多个 weak LM 的 log-prob 特征组合 |
| Chinese AIGC 深度学习检测 | AIMS 2025 | 中文 AI 文本的句长方差、标点密度等特征 |
| psycholinguistic 差异 | arxiv 2505.01800 | 人类写作的具体名词/命名实体密度更高 |
| Stumbling Blocks taxonomy | Wang et al., ACL 2024 | AI 检测攻击面地图 |
| CNKI 三链路情报 | linggantext 技术博客 | 知网 AIGC 3.0 官方「语言模式/语义逻辑/知识增强」三链路 |
| CiLin 同义词词林 | 哈工大 LTP 同义词词林扩展版 | 38,873 词的同义词映射,--cilin 可选启用 |
非商业使用免费,任何用户都可以复现所有数值。
# 方式一:ClawHub
clawhub install humanize-chinese
# 方式二:Git Clone
git clone https://github.com/voidborne-d/humanize-chinese.git
# 方式三:Claude Code Skill
npx skills add https://github.com/voidborne-d/humanize-chinese.git不需要 pip install 任何东西。下载就能用。
4 个 slash command,复制到 .claude/commands/ 即可:
git clone https://github.com/voidborne-d/humanize-chinese.git
cp humanize-chinese/claude-code/*.md YOUR_PROJECT/.claude/commands/然后在 Claude Code 里:
/detect 综上所述,人工智能技术在教育领域具有重要的应用价值...
/humanize 本文旨在探讨人工智能对高等教育教学模式的影响...
/academic 论文.txt
/style xiaohongshu 在当今快节奏的生活中...
| 命令 | 功能 |
|---|---|
/detect |
AI 痕迹检测,0-100 评分 |
/humanize |
去 AI 味改写 |
/academic |
学术论文 AIGC 降重 |
/style [风格] |
风格转换(7 种) |
./humanize --list
./humanize detect 论文.txt # 检测
./humanize academic 论文.txt -o 改后.txt --compare # 学术降重
./humanize rewrite text.txt --quick -o clean.txt # 通用改写(极速)
./humanize style text.txt --style xiaohongshu # 风格转换
./humanize compare text.txt -a # 前后对比
./humanize <sub> --help # 子命令帮助底层依然是各 scripts/*_cn.py 独立脚本,./humanize 只是分发器,直接调用旧脚本也完全 OK。
./humanize academic 论文.txt # 只检测
./humanize academic 论文.txt -o 改后.txt --compare # 改写 + 对比
./humanize academic 论文.txt -o 改后.txt --quick # 快速模式(跳过统计,~18× 速度)
./humanize academic 论文.txt -o 改后.txt -a --compare # 激进模式./humanize detect text.txt -v # 检测(详细)
./humanize rewrite text.txt -o clean.txt # 改写
./humanize rewrite text.txt --quick # 纯替换,极快
./humanize compare text.txt -a # 对比默认 detector 用 HC3 短问答校准,对 GPT-4o/Claude/Gemini 写的长篇小说、长博客会系统性欠估。两种修正方式:
python scripts/detect_cn.py 章节.txt --scene novel # 显式:小说/长博客/散文/长新闻
python scripts/detect_cn.py 稿件.txt --scene auto # 按长度自动选(≥1500 中文字符走长篇 LR)
python scripts/detect_cn.py 短问答.txt # 默认 scene(短问答/通用)
python scripts/detect_cn.py 论文.txt --scene academic # 学术论文(显式 opt-in)长篇 LR 专训在 170 条 AI 长文本(5 家 LLM × 5 类:小说/学术/新闻/博客/评论)+ 170 条人类长文本(v3ucn 小说 + CNewSum 新闻 + 博客)上,holdout 89.7%。
实测对照(3 篇 Gemini-2.5-flash 新写小说章节,约 2800-3200 字):
| 模式 | 样本1 | 样本2 | 样本3 | 均值 |
|---|---|---|---|---|
| 默认 scene(HC3 校准) | 52 | 38 | 70 | 53 |
| --scene novel / auto | 63 | 57 | 82 | 67 |
默认模式对现代 LLM 的长篇创作欠估 ~15 分,切 --scene novel 或 --scene auto 可修正。混合长度输入推荐 --scene auto —— 短文本仍走 general,长文本走长篇 LR。
./humanize style text.txt --style xiaohongshu # 小红书
./humanize style text.txt --style zhihu # 知乎
./humanize style text.txt --style weibo # 微博
./humanize style chapter.txt --style novel # 小说/长篇叙事8 种风格:口语化 / 知乎 / 小红书 / 公众号 / 学术 / 文艺 / 微博 / 小说
--style novel 专为长篇叙事设计:humanize 后剔除 AI 写小说时常混入的元说明("我将按照您的要求创作..."、"故事梗概"、"本次写作")+ markdown 章节头 (## ###) + 大纲 bullet (- 关键点:) + 分隔线,保段落不加 emoji/hashtag。处理长篇章节、博客时观感更干净。
风格转换会先自动跑一遍 humanize,去掉 AI 高频词,再套风格。--no-humanize 关闭。
| 功能 | 说明 |
|---|---|
| 🔍 AI 检测 | 20+ 规则维度 + 三路 LR 分场景校准(general / academic / novel),0-100 评分 |
| 📈 统计层 | 字符级 trigram 困惑度 + DivEye 惊奇度 + GLTR rank 分桶 + 句长 burstiness + 标点密度 |
| ✏️ 智能改写 | 困惑度引导选词 + 低频 bigram 注入 + 短句插入 + 句长随机化 + 40 paraphrase 模板 + 144 条短语替换 + 三档自适应强度 + 多段 \n\n 段落保留(长篇章节不丢结构) |
| 🎓 学术降重 | 10 维度检测(含扩散度)+ 126 条学术替换 + 独立 picker 策略,针对知网/维普/万方 |
| 🎨 风格转换 | 8 种中文写作风格(知乎/小红书/微博/公众号/学术/文艺/口语化/小说) |
| 📊 前后对比 | 学术分 + 通用分双评分,改写效果一目了然 |
| 🔄 可复现 | --seed 保证相同输入相同输出 |
| ⚡ 速度 | 10k 字符 --quick 模式 0.3 秒,完整模式 5 秒 |
| 📦 零依赖 | 纯 Python 标准库,下载即用。可选 CiLin 词林(--cilin,38873 词 + 语义过滤) |
| 📐 基准测试 | HC3-Chinese 12853 对人类/AI 真实问答回归测试(200 样本 fused 模式 95.5% 正确率) |
用 ChatGPT / DeepSeek 写了论文初稿?三步搞定:
# 1. 看看 AIGC 率多高
python scripts/academic_cn.py 论文.txt
# 2. 一键改写
python scripts/academic_cn.py 论文.txt -o 改后.txt --compare
# 3. 不够就开激进模式
python scripts/academic_cn.py 论文.txt -o 改后.txt -a --compare工具做了什么:
- "本文旨在" → "本研究聚焦于"
- "被广泛应用" → "得到较多运用"
- 打破每段一样长的结构
- 加入"可能""在一定程度上"等学术犹豫语
- "研究表明" → "笔者认为""前人研究发现"
- 基于 HC3-Chinese Cohen's d 校准的统计特征,学术词表禁用口语候选(不会把"应用"改成"施用")
| 分数 | 等级 | 含义 |
|---|---|---|
| 0-24 | 🟢 LOW | 基本像人写的 |
| 25-49 | 🟡 MEDIUM | 有些 AI 痕迹 |
| 50-74 | 🟠 HIGH | 大概率 AI 生成 |
| 75-100 | 🔴 VERY HIGH | 几乎确定是 AI |
三段式套路、机械连接词、空洞宏大词、AI 高频词、模板句式、段落结构均匀度。规则都在 scripts/patterns_cn.json,可以自己改。
所有阈值都基于 HC3-Chinese 300+300 人类-AI 对照样本的 Cohen's d 校准,不是拍脑袋设的。
1. 句长 burstiness (最强信号) — AI 中文爱写 15-25 字等长句,人类长短交错。灵感来自 AIMS 2025 中文深度学习 AIGC 检测 paper + 知网语言模式链情报。
- 句长变异系数 CV (HC3 Cohen's d = 1.22 — 人类 0.52 vs AI 0.32)
- 短句占比 (< 10 字的句子比例,HC3 Cohen's d = 1.21 — 人类 25% vs AI 2.6%)
2. 困惑度 (Perplexity) — 字符序列的平均负对数概率(d = 0.47)。基于 scripts/ngram_freq_cn.json 训练语料的字符级 3-gram。
3. GLTR rank 分桶 (Gehrmann et al. ACL 2019)
- top-10 bucket 占比(AI 更集中在高概率字,d = 0.44)
4. DivEye surprisal 时间序列 (Basani & Chen TMLR 2026)
- skew(d = 0.41)、excess_kurt(d = 0.29)、spectral_flatness(d = 0.20)
5. 逗号密度 — 有趣发现:AIMS 2025 paper 说「AI 标点密」但 HC3 实测相反。Q&A corpus 里人类写 casual 文本用更多 commas(4.82/百字 vs AI 3.82/百字,d = -0.47)。加了 low_comma_density 指标。
所有 statistical indicators 总分上限 25,和规则层(上限 75)加成最终 0-100。
Picker 策略:每次替换从多候选中选「困惑度次高」的(最高的常是古语/错字,次高才是自然人类选择)。学术场景额外禁用 30 个口语候选 + 37 个 AI 触发词候选。
三档自适应强度:
- score < 5:conservative — 仅短语替换 + 标点清理
- 5 ≤ score < 25:moderate — +restructure + bigram
- score ≥ 25:full — 全量(含噪声注入 + 句长随机化)
避免对已经够干净的文本乱加噪音反而更像 AI。
其他技术:
- 低频 bigram 注入(把 "系统" × 6 的重复 60% 换成 "架构""体系""框架")
- 句长随机化(避免每句差不多长,但保留"X指出,Y"等 attribution 结构)
- 段落感知(每一步按
\n\n分段处理,不丢段落结构) - 可选 CiLin 同义词词林扩展(
--cilin,38,873 词 JSON)
统一 CLI 形式(推荐):
./humanize detect [file] [-v] [-s] [-j]
./humanize rewrite [file] [-o out] [--scene S] [--style S] [-a] [--seed N] [--quick] [--cilin]
./humanize academic [file] [-o out] [--detect-only] [-a] [--compare] [--quick]
./humanize style [file] --style S [-o out] [--no-humanize]
./humanize compare [file] [-o out] [--scene S] [-a]等价的独立脚本形式:
python scripts/detect_cn.py [file] ...
python scripts/humanize_cn.py [file] ...
python scripts/academic_cn.py [file] ...
python scripts/style_cn.py [file] --style S ...
python scripts/compare_cn.py [file] ...| 参数 | 说明 |
|---|---|
-v |
详细模式,显示最可疑的句子 |
-s |
只输出评分 |
-j |
JSON 输出 |
-o |
输出文件 |
-a |
激进模式 |
--seed N |
固定随机种子 |
--quick |
纯替换 + 结构还原,跳过统计优化(~18× 速度) |
--no-stats |
关闭统计优化 |
--no-noise |
关闭噪声注入和句长随机化 |
--cilin |
开启 CiLin 同义词扩展(humanize) |
--compare |
改写前后双评分对比(academic) |
--no-humanize |
style 转换前不先去 AI 词 |
for f in *.txt; do echo "=== $f ===" && ./humanize detect "$f" -s; done
for f in *.md; do ./humanize rewrite "$f" -a -o "${f%.md}_clean.md"; done和 Humanizer-zh(5k⭐)的区别:
| 本项目 | Humanizer-zh | |
|---|---|---|
| 运行方式 | ✅ 独立 CLI,终端直接跑 | 纯 prompt,必须在 Claude Code 内用 |
| 依赖 | ✅ 零依赖、零 LLM、零 token | 需要 Claude Code + API 额度 |
| 量化评分 | ✅ 0-100 分(学术 + 通用双尺度) | ❌ 无评分 |
| 统计检测 | ✅ 困惑度 + DivEye + GLTR,HC3 校准 | ❌ 无 |
| 学术模式 | ✅ 10 维度 + 126 条替换 | ❌ 无 |
| 风格转换 | ✅ 7 种 | ❌ 无 |
| 可复现 | ✅ --seed |
❌ 每次不同 |
| 批量处理 | ✅ CLI 管道 | ❌ 只能单篇交互 |
| 免费 | ✅ 完全免费 | |
| 基准测试 | ✅ HC3-Chinese 200 样本回归 | ❌ 无 |
简单说:Humanizer-zh 是个好 prompt,但只能在 Claude Code 里用。我们是独立工具,任何环境都能跑,而且每次改动都有 HC3 回归验证。
- 融合检测让分数差距拉大:v4.0.0 默认用 rule+stat + LR ensemble 融合评分,真实 ChatGPT 回答也能清晰区分。刻板化 AI 文本(论文模板/小红书腔)降幅 80-90 分;自然 ChatGPT 文本降幅 30-40 分。
- 统计层不用神经网络:我们用字符级 n-gram + 时间序列特征,不是 RoBERTa 这类分类器。优点是零依赖,缺点是分类 AUC 不如 SOTA 检测器。
- CNKI/维普/万方没有公开 API,我们无法接入作为 oracle。PaperPass / 朱雀 都有腾讯 T-Sec CAPTCHA 反爬。所以本项目基于自己的检测公式 + HC3 回归测试迭代,不盲信第三方检测器的具体分数。
- 不保证过 100% 的 AIGC 检测。改写会降低「刻板 AI 味」,但最终还是要看检测器用什么模型。工具只是帮你更像人写的,不是反检测魔法。
我们用 HC3-Chinese 公开数据集(12,853 对人类 vs ChatGPT 真实问答)做了基准测试,随机抽 200 对看工具的实际效果。
| 能力 | 数值 | 说明 |
|---|---|---|
| 区分 AI 和人写的能力 | 95.5% | 随机抽一对文本,检测器给 AI 打分更高的概率 |
| AI 原分 vs 人类原分 | 74.8 vs 14.8 | 差 60.0 分,融合检测大幅领先 rule+stat(14.8 分) |
| 领域 | AI 原分 | 改写后 | 下降 |
|---|---|---|---|
| 🧠 心理咨询 | 75.4 | 22.5 | -53.0 |
| 🏥 医学问答 | 70.1 | 19.8 | -50.3 |
| 💰 金融问答 | 77.9 | 32.3 | -45.6 |
| ⚖️ 法律问答 | 81.4 | 36.7 | -44.7 |
| 💬 开放问答 | 74.9 | 39.3 | -35.6 |
| 📚 百科问答 | 64.4 | 32.1 | -32.2 |
| 🔍 事实问答 | 79.5 | 57.3 | -22.2 |
简单说:各领域改写后都能降 22-53 分,长文本+专业领域(心理/医学/法律/金融)效果最显著。
针对 GPT-4o / Claude-sonnet-4 / Gemini-2.5-flash / DeepSeek / Qwen 写的 5 类长文本(小说/学术/新闻/博客/评论),用专门的长篇 LR 校准跑:
| 体裁 | n | AI 原分 | 改写后 | 下降 |
|---|---|---|---|---|
| 📚 博客 | 50 | 78.7 | 31.2 | -47.5 |
| 🎬 评论 | 20 | 85.7 | 39.8 | -45.9 |
| 📖 小说 | 60 | 66.3 | 39.9 | -26.5 |
| 📰 新闻 | 20 | 87.9 | 63.0 | -24.9 |
| 🎓 学术 | 20 | 95.0 | 71.0 | -24.0 |
整体 gap 51.4,平均降幅 34.5 分,段落保留率 100%(多段 \n\n 章节结构、markdown 标题、bullet、对话段都不丢)。学术降幅最低是因为知网风格的术语密集 + markdown 章节结构,纯规则改写空间有限。
- 融合检测(默认)很严。默认分数 = rule+stat × 0.2 + LR ensemble × 0.8,correct rate 从 75% 提到 95.5%,gap 从 14.8 扩到 60.0。HC3 里典型 ChatGPT 回答现在原分在 64-81 之间,改写后落在 20-57 区间,降幅明显。
--rule-only可回退到 legacy rule+stat 评分。 - 短问答难降:事实类问答(nlpcc_dbqa)本身字数少,AI 特征不明显,工具发挥空间有限。
- 所有阈值都有依据:每个检测特征都在 600 对人类-AI 样本上标定过,不是拍脑袋设的。
自己跑一遍:
# 需要先下载 HC3 数据到 ../data/hc3_chinese_all.jsonl
python evals/run_hc3_benchmark.py --n 200 --seed 42
# 长文本 170 样本 benchmark (含 AI long-form + 人类对照)
# best-of-n 10 = 默认用户体验;省略此 flag 跑得快但 -10 分降幅
python evals/run_longform_benchmark.py --n-human 60 --seed 42 --best-of-n 10MIT Non-Commercial — 个人学习、学术研究、非商业开源项目随便用。
禁止商业使用,包括但不限于:
- 卖本软件或基于本软件的衍生品
- 把工具包装成付费服务(SaaS / API / 网页服务等)
- 集成到商业产品中作为功能卖点
- 用本软件给客户提供付费改写 / AI 检测服务
如需商业授权,请通过 GitHub repo 联系作者。
PYTHONHASHSEED=0 python3 -m unittest discover提交前建议同时运行语法检查:
python3 -m py_compile scripts/*.py evals/*.py evals/oracles/*.py