-
Notifications
You must be signed in to change notification settings - Fork 45
Expand file tree
/
Copy path.env.example
More file actions
69 lines (62 loc) · 2.73 KB
/
.env.example
File metadata and controls
69 lines (62 loc) · 2.73 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
# ViNote 环境配置文件
# 复制此文件为 .env 并填写您的配置
# ============================================
# OpenAI API 配置(必需)
# ============================================
OPENAI_API_KEY=your-api-key-here
OPENAI_BASE_URL=https://api.openai.com/v1
OPENAI_MODEL=gpt-4o
# ============================================
# ASR 模型配置(可选)
# ============================================
# ASR_PROVIDER 可选值: whisper, funasr, qwen3
# ASR_MODEL 例子:
# whisper: tiny/base/small/medium/large/large-v3
# funasr: SenseVoiceSmall
# qwen3: Qwen3-ASR-0.6B / Qwen3-ASR-1.7B
# ASR_MODEL_SOURCE 可选值: modelscope, huggingface
# ASR_MODEL_DIR 可选值: 本地模型目录(指定后优先生效)
# ASR_DEVICE 可选值: cpu, cuda:0, mps
# ASR_COMPUTE_TYPE 可选值: int8, float16, bfloat16
# ASR_MAX_INPUT_SECONDS: 单个音频切片的最大长度(秒), 默认1200。Qwen3建议设为60以避免OOM
# ASR_MAX_INFERENCE_BATCH_SIZE: 批处理大小, 默认1。显存较小时建议设为1
WHISPER_MODEL_SIZE=base
ASR_PROVIDER=whisper
ASR_MODEL=base
ASR_MODEL_SOURCE=huggingface
ASR_MODEL_DIR=
ASR_DEVICE=cpu
ASR_COMPUTE_TYPE=int8
ASR_MAX_INPUT_SECONDS=60
ASR_MAX_INFERENCE_BATCH_SIZE=1
# ============================================
# ANP服务配置(可选)
# ============================================
# ANP视频搜索服务地址
ANP_SERVER_URL=http://localhost:8000/ad.json
# ============================================
# 搜索源配置(可选)
# ============================================
# 逗号分隔, 可选值: anp, local
# anp = 通过 ANP 协议调用远程搜索服务
# local = 通过 yt-dlp 本地搜索 (YouTube/Bilibili)
# 示例: VIDEO_SEARCH_PROVIDERS=anp,local (同时使用两个源)
VIDEO_SEARCH_PROVIDERS=local
# ============================================
# 并发配置(可选)
# ============================================
# 批量任务同时处理数。值越大同时跑的任务越多,占用更多内存和API并发
# 建议: 根据内存和API限额调整,一般3-5即可
BATCH_CONCURRENCY=5
# ASR转录并发数。Whisper等ASR模型是CPU/GPU密集型计算
# 模型只加载一次(共享实例),并发不会增加内存占用,但每个转录占1个CPU核
# - 1(默认): 串行转录,单任务速度最快
# - 2-3: 批量吞吐提升,每个转录稍慢,CPU占用2-3核
# - 5: 5核满载,tiny/base等小模型可承受,large模型慎用
# 参考: tiny模型(~75MB) 5并发≈5核CPU,内存不变;large模型单个就吃满GPU
# 建议: tiny/base模型可设3-5,small/medium设2-3,large/large-v3设1-2
ASR_CONCURRENCY=1
# ============================================
# 启动
# ============================================
# chmod +x start.sh && ./start.sh