Skip to content

Latest commit

 

History

History
521 lines (378 loc) · 27.1 KB

File metadata and controls

521 lines (378 loc) · 27.1 KB

🔧 中文 AI 文本去痕迹工具  Tweet

免费、本地运行、零依赖、零 LLM。检测 + 改写一步到位。

GitHub stars ClawHub License: MIT Non-Commercial Python Claude Code


30 秒看效果

./humanize rewrite text.txt -o clean.txt --compare

💼 工作汇报体(166 字)

改写前 🔴 96/100 VERY HIGH:

随着业务的不断发展,本季度团队在多个层面取得了显著进展。值得注意的是,通过深度优化业务流程,我们不仅全方位提升了工作效率,更进一步赋能了公司核心战略,充分体现了多维度协同的价值。

首先,技术团队聚焦核心系统的稳定性建设,持续推动业务长效发展。其次,产品团队基于用户洞察,打造了更具竞争力的解决方案。综上所述,团队凝聚力得到进一步增强,为下一季度的发展奠定了坚实基础。

改写后 🟢 31/100 MEDIUM(降 65 分):

现在,本季度团队在多个层面做到了可观进展,同时也进一步支持了公司核心战略,充分体现了多个方面协同的价值。注意,通过深度优化业务流程,我们多方面提升了工作效率。成效不小。

技术团队聚焦核心系统的稳定性建设。持续推动业务长效发展。说到底,团队凝聚力得到深入增强,为下一季度的发展奠定了坚实基础,另外,产品团队基于用户洞察,打造了更具竞争力的解决方案。颇有看点。

零注册、零付费、零联网、零 LLM、零 API Key —— 本地几秒到几十秒跑完。

更多样本(学术 / 通用 / 小红书 / 长篇博客)见下方「改写前后对比」。


改写前后对比

🎓 学术论文(98 → 42,降 56 分)

改写前 🔴 98分:

随着信息技术的不断发展,人工智能在教育领域的应用正在日益深化,呈现出多维度、全方位的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。

值得注意的是,近年来人工智能赋能教育已成为学界关注的焦点。研究表明,智能化系统通过深度融合大数据分析与机器学习算法,能够全方位地评估学生学习状况,从而实现真正意义上的因材施教。不难发现,这种新型教学模式正在推动教育生态的深度变革。

综上所述,随着技术的不断发展,人工智能必将在教育领域发挥越来越重要的作用,为构建高质量教育体系提供有力支撑。由此可见,深入研究该领域具有广阔的发展前景。

改写后 🟡 42分:

现在,人工智能在教育领域的应用正在日益深化,呈现出各个层面、多方面的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。

注意,这几年人工智能促进教育现在是学界关注的焦点。从已有研究来看,智能化系统通过融入大数据解读与机器学习算法,能够各维度地评估学生学习状况,这样一来实现真正意义上的因材施教,可以看到,这种新型教学模式,正在推动教育体系的深度变革。前景看好。

说到底,眼下,人工智能必将在教育领域发挥日渐主要的作用,为构建高质量教育系统呈上有力支撑。看得出,深入探究该领域,享有广阔的发展前景。

💬 通用文本(98 → 38,降 60 分)

改写前 🔴 98分:

综上所述,人工智能技术在教育领域具有重要的应用价值和广阔的发展前景。值得注意的是,随着技术的不断发展,AI 将在个性化学习、智能评估和自适应教学等方面发挥越来越重要的作用。

首先,人工智能能够助力教师进行精准教学。通过大数据分析和深度学习算法,AI 系统可以全方位地了解每个学生的学习特点,从而实现真正意义上的因材施教。

改写后 🟡 38分:

总之,人工智能技术在教育领域,具有重要的应用价值和广阔的发展前景。注意,近来,AI 将在个性化学习、智能评估和自适应教学等方面发挥日渐重要的作用。

人工智能能够促进教师进行精准教学。凭借大数据解读和深度学习算法,AI 系统可以多方面地了解每个学生的学习特点,这样一来实现真正意义上的因材施教。

老实说,智能评估系统亦可各个层面地评判学习者的综合素质,不仅关注知识掌握程度,更注重功底的培养和素质的提升,还有,自适应学习平台能够根据学生的实时表现动态调整学习路径,为每位学习者呈上个性化的学习体验。空间不小。

🌸 社交媒体 → 小红书风格(95 → 14,降 81 分)

改写前 🔴 95分:

在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义。值得注意的是,通过合理规划和科学管理时间,不仅能够显著提升工作效率,更能够实现工作与生活的完美平衡,从而全方位提升整体生活质量。

首先,制定明确的目标是时间管理的基础。一个清晰的目标能够赋能我们的日常决策,帮助我们更好地分配时间和精力。

改写后 🟢 14分:

绝了绝了🧸!分享一个~

其实,在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义,注意,凭借合理规划和科学管理时间💖。

不仅能够可观提升工作效率,更能够实现工作与生活的完美平衡,因而多方面提升整体生活质量🍃!制定明确的目标,是时间管理的基础。

一个清晰的目标能够促进我们的日常决策,帮助我们更太好了地分配时间和精力,避免在不重要的事情上浪费宝贵的时间资源💫。

很明显,那些在时间管理上取得上佳成效的人,无一例外都拥有清晰的目标体系!势头不错💖。

📝 长篇博客(1364 字, 86 → 42,降 44 分)

改写前 🔴 86分(节选):

从程序员转产品经理,第一年学到的三件事

在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情。在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变……

一、沟通能力的重要性

程序员通常专注于技术细节和实现方式,他们与计算机打交道的时间往往多于与人交流。然而,作为产品经理,沟通能力成为我的一项核心技能……

案例:在一个项目中,我们需要开发一款新的移动应用。在项目初期,我意识到开发团队和设计团队在理解需求上有分歧……

改写后 🟡 42分(节选):

从程序员转产品经理,第一年学到的三件事

在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情,在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变。以下是我第一年里最重要的三件事。以及一些具体案例和反思。在这个过程中,我学到了许多宝贵的经验,潜力不小。

一、沟通能力的重要性

程序员通常专注于技术细节和实现方式。他们与计算机打交道的时间往往多于与人交流。在这个角色中,我需要与开发团队、设计师、市场营销团队以及客户进行频繁的交流。

然而,作为产品经理,沟通功底成为我的一项核心技能,对我来说,约莫,这意味着我必须调整自己的沟通风格,以便在不同的背景下有效传达信息。颇有看点。

完整长文本及输出请见 examples/sample_long_blog.txt

所有示例都在 examples/ 目录,可直接复现。


📚 技术基础(参考论文)

本项目的检测算法不是拍脑袋设的,每一条特征都对应一篇 paper 或研究发现:

技术 来源论文 / 数据集 作用
HC3-Chinese 校准 Hello-SimpleAI/chatgpt-comparison-detection 12,853 对人类/ChatGPT 真实问答,所有阈值在此数据集 300+300 样本上校准
DivEye 惊奇度 Basani & Chen, TMLR 2026 字符级 surprisal 时间序列的 skew/kurtosis/spectral flatness
GLTR rank 分桶 Gehrmann et al., ACL 2019 AI 倾向选 top-10 概率字,人类更分散
Fast-DetectGPT Bao et al., ICLR 2024 局部曲率:AI 文本在模型预测下曲率低
Binoculars Hans et al., ICML 2024 两个模型 perplexity 比值区分 AI / 人类
MPU (AIGC_detector_zhv2) Tian et al., ICLR 2024 中文 AIGC detector 的 PU learning 范式
Ghostbuster 多尺度 ngram Verma et al., NAACL 2024 多个 weak LM 的 log-prob 特征组合
Chinese AIGC 深度学习检测 AIMS 2025 中文 AI 文本的句长方差、标点密度等特征
psycholinguistic 差异 arxiv 2505.01800 人类写作的具体名词/命名实体密度更高
Stumbling Blocks taxonomy Wang et al., ACL 2024 AI 检测攻击面地图
CNKI 三链路情报 linggantext 技术博客 知网 AIGC 3.0 官方「语言模式/语义逻辑/知识增强」三链路
CiLin 同义词词林 哈工大 LTP 同义词词林扩展版 38,873 词的同义词映射,--cilin 可选启用

非商业使用免费,任何用户都可以复现所有数值。


安装

# 方式一:ClawHub
clawhub install humanize-chinese

# 方式二:Git Clone
git clone https://github.com/voidborne-d/humanize-chinese.git

# 方式三:Claude Code Skill
npx skills add https://github.com/voidborne-d/humanize-chinese.git

不需要 pip install 任何东西。下载就能用。


Claude Code

4 个 slash command,复制到 .claude/commands/ 即可:

git clone https://github.com/voidborne-d/humanize-chinese.git
cp humanize-chinese/claude-code/*.md YOUR_PROJECT/.claude/commands/

然后在 Claude Code 里:

/detect 综上所述,人工智能技术在教育领域具有重要的应用价值...
/humanize 本文旨在探讨人工智能对高等教育教学模式的影响...
/academic 论文.txt
/style xiaohongshu 在当今快节奏的生活中...
命令 功能
/detect AI 痕迹检测,0-100 评分
/humanize 去 AI 味改写
/academic 学术论文 AIGC 降重
/style [风格] 风格转换(7 种)

快速上手

统一 CLI(推荐)

./humanize --list
./humanize detect 论文.txt                       # 检测
./humanize academic 论文.txt -o 改后.txt --compare # 学术降重
./humanize rewrite text.txt --quick -o clean.txt  # 通用改写(极速)
./humanize style text.txt --style xiaohongshu     # 风格转换
./humanize compare text.txt -a                    # 前后对比
./humanize <sub> --help                           # 子命令帮助

底层依然是各 scripts/*_cn.py 独立脚本,./humanize 只是分发器,直接调用旧脚本也完全 OK。

🎓 学术论文降 AIGC 率

./humanize academic 论文.txt                      # 只检测
./humanize academic 论文.txt -o 改后.txt --compare  # 改写 + 对比
./humanize academic 论文.txt -o 改后.txt --quick    # 快速模式(跳过统计,~18× 速度)
./humanize academic 论文.txt -o 改后.txt -a --compare  # 激进模式

🔍 通用文本去 AI 味

./humanize detect text.txt -v           # 检测(详细)
./humanize rewrite text.txt -o clean.txt # 改写
./humanize rewrite text.txt --quick      # 纯替换,极快
./humanize compare text.txt -a           # 对比

📚 长篇小说 / 博客(--scene novel / --scene auto)

默认 detector 用 HC3 短问答校准,对 GPT-4o/Claude/Gemini 写的长篇小说、长博客会系统性欠估。两种修正方式:

python scripts/detect_cn.py 章节.txt --scene novel     # 显式:小说/长博客/散文/长新闻
python scripts/detect_cn.py 稿件.txt --scene auto      # 按长度自动选(≥1500 中文字符走长篇 LR)
python scripts/detect_cn.py 短问答.txt                 # 默认 scene(短问答/通用)
python scripts/detect_cn.py 论文.txt --scene academic  # 学术论文(显式 opt-in)

长篇 LR 专训在 170 条 AI 长文本(5 家 LLM × 5 类:小说/学术/新闻/博客/评论)+ 170 条人类长文本(v3ucn 小说 + CNewSum 新闻 + 博客)上,holdout 89.7%。

实测对照(3 篇 Gemini-2.5-flash 新写小说章节,约 2800-3200 字):

模式 样本1 样本2 样本3 均值
默认 scene(HC3 校准) 52 38 70 53
--scene novel / auto 63 57 82 67

默认模式对现代 LLM 的长篇创作欠估 ~15 分,切 --scene novel--scene auto 可修正。混合长度输入推荐 --scene auto —— 短文本仍走 general,长文本走长篇 LR。

🎨 风格转换

./humanize style text.txt --style xiaohongshu   # 小红书
./humanize style text.txt --style zhihu         # 知乎
./humanize style text.txt --style weibo         # 微博
./humanize style chapter.txt --style novel      # 小说/长篇叙事

8 种风格:口语化 / 知乎 / 小红书 / 公众号 / 学术 / 文艺 / 微博 / 小说

--style novel 专为长篇叙事设计:humanize 后剔除 AI 写小说时常混入的元说明("我将按照您的要求创作..."、"故事梗概"、"本次写作")+ markdown 章节头 (## ###) + 大纲 bullet (- 关键点:) + 分隔线,保段落不加 emoji/hashtag。处理长篇章节、博客时观感更干净。

风格转换会先自动跑一遍 humanize,去掉 AI 高频词,再套风格。--no-humanize 关闭。


功能一览

功能 说明
🔍 AI 检测 20+ 规则维度 + 三路 LR 分场景校准(general / academic / novel),0-100 评分
📈 统计层 字符级 trigram 困惑度 + DivEye 惊奇度 + GLTR rank 分桶 + 句长 burstiness + 标点密度
✏️ 智能改写 困惑度引导选词 + 低频 bigram 注入 + 短句插入 + 句长随机化 + 40 paraphrase 模板 + 144 条短语替换 + 三档自适应强度 + 多段 \n\n 段落保留(长篇章节不丢结构)
🎓 学术降重 10 维度检测(含扩散度)+ 126 条学术替换 + 独立 picker 策略,针对知网/维普/万方
🎨 风格转换 8 种中文写作风格(知乎/小红书/微博/公众号/学术/文艺/口语化/小说
📊 前后对比 学术分 + 通用分双评分,改写效果一目了然
🔄 可复现 --seed 保证相同输入相同输出
⚡ 速度 10k 字符 --quick 模式 0.3 秒,完整模式 5 秒
📦 零依赖 纯 Python 标准库,下载即用。可选 CiLin 词林(--cilin,38873 词 + 语义过滤)
📐 基准测试 HC3-Chinese 12853 对人类/AI 真实问答回归测试(200 样本 fused 模式 95.5% 正确率)

🎓 学生党必看

用 ChatGPT / DeepSeek 写了论文初稿?三步搞定:

# 1. 看看 AIGC 率多高
python scripts/academic_cn.py 论文.txt

# 2. 一键改写
python scripts/academic_cn.py 论文.txt -o 改后.txt --compare

# 3. 不够就开激进模式
python scripts/academic_cn.py 论文.txt -o 改后.txt -a --compare

工具做了什么:

  • "本文旨在" → "本研究聚焦于"
  • "被广泛应用" → "得到较多运用"
  • 打破每段一样长的结构
  • 加入"可能""在一定程度上"等学术犹豫语
  • "研究表明" → "笔者认为""前人研究发现"
  • 基于 HC3-Chinese Cohen's d 校准的统计特征,学术词表禁用口语候选(不会把"应用"改成"施用")

⚠️ 改完通读一遍,确认专业术语没被误改、引用格式正确。建议用知网 AMLC 或维普验证。


评分标准

分数 等级 含义
0-24 🟢 LOW 基本像人写的
25-49 🟡 MEDIUM 有些 AI 痕迹
50-74 🟠 HIGH 大概率 AI 生成
75-100 🔴 VERY HIGH 几乎确定是 AI

技术原理

规则层(看词)

三段式套路、机械连接词、空洞宏大词、AI 高频词、模板句式、段落结构均匀度。规则都在 scripts/patterns_cn.json,可以自己改。

统计层(看分布)

所有阈值都基于 HC3-Chinese 300+300 人类-AI 对照样本的 Cohen's d 校准,不是拍脑袋设的。

1. 句长 burstiness (最强信号) — AI 中文爱写 15-25 字等长句,人类长短交错。灵感来自 AIMS 2025 中文深度学习 AIGC 检测 paper + 知网语言模式链情报。

  • 句长变异系数 CV (HC3 Cohen's d = 1.22 — 人类 0.52 vs AI 0.32)
  • 短句占比 (< 10 字的句子比例,HC3 Cohen's d = 1.21 — 人类 25% vs AI 2.6%)

2. 困惑度 (Perplexity) — 字符序列的平均负对数概率(d = 0.47)。基于 scripts/ngram_freq_cn.json 训练语料的字符级 3-gram。

3. GLTR rank 分桶 (Gehrmann et al. ACL 2019)

  • top-10 bucket 占比(AI 更集中在高概率字,d = 0.44)

4. DivEye surprisal 时间序列 (Basani & Chen TMLR 2026)

  • skew(d = 0.41)、excess_kurt(d = 0.29)、spectral_flatness(d = 0.20)

5. 逗号密度 — 有趣发现:AIMS 2025 paper 说「AI 标点密」但 HC3 实测相反。Q&A corpus 里人类写 casual 文本用更多 commas(4.82/百字 vs AI 3.82/百字,d = -0.47)。加了 low_comma_density 指标。

所有 statistical indicators 总分上限 25,和规则层(上限 75)加成最终 0-100。

智能改写

Picker 策略:每次替换从多候选中选「困惑度次高」的(最高的常是古语/错字,次高才是自然人类选择)。学术场景额外禁用 30 个口语候选 + 37 个 AI 触发词候选。

三档自适应强度

  • score < 5:conservative — 仅短语替换 + 标点清理
  • 5 ≤ score < 25:moderate — +restructure + bigram
  • score ≥ 25:full — 全量(含噪声注入 + 句长随机化)

避免对已经够干净的文本乱加噪音反而更像 AI。

其他技术

  • 低频 bigram 注入(把 "系统" × 6 的重复 60% 换成 "架构""体系""框架")
  • 句长随机化(避免每句差不多长,但保留"X指出,Y"等 attribution 结构)
  • 段落感知(每一步按 \n\n 分段处理,不丢段落结构)
  • 可选 CiLin 同义词词林扩展(--cilin,38,873 词 JSON)

CLI 参数速查

统一 CLI 形式(推荐):

./humanize detect   [file] [-v] [-s] [-j]
./humanize rewrite  [file] [-o out] [--scene S] [--style S] [-a] [--seed N] [--quick] [--cilin]
./humanize academic [file] [-o out] [--detect-only] [-a] [--compare] [--quick]
./humanize style    [file] --style S [-o out] [--no-humanize]
./humanize compare  [file] [-o out] [--scene S] [-a]

等价的独立脚本形式:

python scripts/detect_cn.py [file] ...
python scripts/humanize_cn.py [file] ...
python scripts/academic_cn.py [file] ...
python scripts/style_cn.py [file] --style S ...
python scripts/compare_cn.py [file] ...
参数 说明
-v 详细模式,显示最可疑的句子
-s 只输出评分
-j JSON 输出
-o 输出文件
-a 激进模式
--seed N 固定随机种子
--quick 纯替换 + 结构还原,跳过统计优化(~18× 速度
--no-stats 关闭统计优化
--no-noise 关闭噪声注入和句长随机化
--cilin 开启 CiLin 同义词扩展(humanize)
--compare 改写前后双评分对比(academic)
--no-humanize style 转换前不先去 AI 词

批量处理

for f in *.txt; do echo "=== $f ===" && ./humanize detect "$f" -s; done
for f in *.md; do ./humanize rewrite "$f" -a -o "${f%.md}_clean.md"; done

对比 Humanizer-zh

Humanizer-zh(5k⭐)的区别:

本项目 Humanizer-zh
运行方式 ✅ 独立 CLI,终端直接跑 纯 prompt,必须在 Claude Code 内用
依赖 ✅ 零依赖、零 LLM、零 token 需要 Claude Code + API 额度
量化评分 ✅ 0-100 分(学术 + 通用双尺度) ❌ 无评分
统计检测 ✅ 困惑度 + DivEye + GLTR,HC3 校准 ❌ 无
学术模式 ✅ 10 维度 + 126 条替换 ❌ 无
风格转换 ✅ 7 种 ❌ 无
可复现 --seed ❌ 每次不同
批量处理 ✅ CLI 管道 ❌ 只能单篇交互
免费 ✅ 完全免费 ⚠️ 需要 API 额度
基准测试 ✅ HC3-Chinese 200 样本回归 ❌ 无

简单说:Humanizer-zh 是个好 prompt,但只能在 Claude Code 里用。我们是独立工具,任何环境都能跑,而且每次改动都有 HC3 回归验证。


局限

  • 融合检测让分数差距拉大:v4.0.0 默认用 rule+stat + LR ensemble 融合评分,真实 ChatGPT 回答也能清晰区分。刻板化 AI 文本(论文模板/小红书腔)降幅 80-90 分;自然 ChatGPT 文本降幅 30-40 分。
  • 统计层不用神经网络:我们用字符级 n-gram + 时间序列特征,不是 RoBERTa 这类分类器。优点是零依赖,缺点是分类 AUC 不如 SOTA 检测器。
  • CNKI/维普/万方没有公开 API,我们无法接入作为 oracle。PaperPass / 朱雀 都有腾讯 T-Sec CAPTCHA 反爬。所以本项目基于自己的检测公式 + HC3 回归测试迭代,不盲信第三方检测器的具体分数。
  • 不保证过 100% 的 AIGC 检测。改写会降低「刻板 AI 味」,但最终还是要看检测器用什么模型。工具只是帮你更像人写的,不是反检测魔法。

真实数据测试

我们用 HC3-Chinese 公开数据集(12,853 对人类 vs ChatGPT 真实问答)做了基准测试,随机抽 200 对看工具的实际效果。

检测器表现(融合模式默认)

能力 数值 说明
区分 AI 和人写的能力 95.5% 随机抽一对文本,检测器给 AI 打分更高的概率
AI 原分 vs 人类原分 74.8 vs 14.8 60.0 分,融合检测大幅领先 rule+stat(14.8 分)

改写效果(HC3 200 样本,平均降幅 40.6 分,184/200 样本降分)

领域 AI 原分 改写后 下降
🧠 心理咨询 75.4 22.5 -53.0
🏥 医学问答 70.1 19.8 -50.3
💰 金融问答 77.9 32.3 -45.6
⚖️ 法律问答 81.4 36.7 -44.7
💬 开放问答 74.9 39.3 -35.6
📚 百科问答 64.4 32.1 -32.2
🔍 事实问答 79.5 57.3 -22.2

简单说:各领域改写后都能降 22-53 分,长文本+专业领域(心理/医学/法律/金融)效果最显著。

长文本基准(170 AI 长篇 × 5 体裁,--scene novel 检测)

针对 GPT-4o / Claude-sonnet-4 / Gemini-2.5-flash / DeepSeek / Qwen 写的 5 类长文本(小说/学术/新闻/博客/评论),用专门的长篇 LR 校准跑:

体裁 n AI 原分 改写后 下降
📚 博客 50 78.7 31.2 -47.5
🎬 评论 20 85.7 39.8 -45.9
📖 小说 60 66.3 39.9 -26.5
📰 新闻 20 87.9 63.0 -24.9
🎓 学术 20 95.0 71.0 -24.0

整体 gap 51.4,平均降幅 34.5 分,段落保留率 100%(多段 \n\n 章节结构、markdown 标题、bullet、对话段都不丢)。学术降幅最低是因为知网风格的术语密集 + markdown 章节结构,纯规则改写空间有限。

需要知道的

  • 融合检测(默认)很严。默认分数 = rule+stat × 0.2 + LR ensemble × 0.8,correct rate 从 75% 提到 95.5%,gap 从 14.8 扩到 60.0。HC3 里典型 ChatGPT 回答现在原分在 64-81 之间,改写后落在 20-57 区间,降幅明显。--rule-only 可回退到 legacy rule+stat 评分。
  • 短问答难降:事实类问答(nlpcc_dbqa)本身字数少,AI 特征不明显,工具发挥空间有限。
  • 所有阈值都有依据:每个检测特征都在 600 对人类-AI 样本上标定过,不是拍脑袋设的。

自己跑一遍:

# 需要先下载 HC3 数据到 ../data/hc3_chinese_all.jsonl
python evals/run_hc3_benchmark.py --n 200 --seed 42

# 长文本 170 样本 benchmark (含 AI long-form + 人类对照)
# best-of-n 10 = 默认用户体验;省略此 flag 跑得快但 -10 分降幅
python evals/run_longform_benchmark.py --n-human 60 --seed 42 --best-of-n 10

Star History

Star History Chart


License

MIT Non-Commercial — 个人学习、学术研究、非商业开源项目随便用。

禁止商业使用,包括但不限于:

  • 卖本软件或基于本软件的衍生品
  • 把工具包装成付费服务(SaaS / API / 网页服务等)
  • 集成到商业产品中作为功能卖点
  • 用本软件给客户提供付费改写 / AI 检测服务

如需商业授权,请通过 GitHub repo 联系作者。

运行测试

PYTHONHASHSEED=0 python3 -m unittest discover

提交前建议同时运行语法检查:

python3 -m py_compile scripts/*.py evals/*.py evals/oracles/*.py