Skip to content

Triedge-sys/AI_only_code

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 

Repository files navigation

Весь код написан ИИ, без участия человека.

  1. Приоритетный Loss Function
    Кастомный PriorityLoss с динамическим штрафом для:

    • Эмодзи (Unicode-паттерны)
    • Текстовых смайлов (:-), ;-) и др.)
    • Контроля частоты спецтокенов в генерации
  2. Оптимизированная архитектура

    • Упрощённый GPT2 (6 слоёв, 8 голов)
    • Поддержка Tensor Cores (bfloat16 + tf32)
    • JIT-компиляция через torch.compile
  3. Эффективный пайплайн

    • Градиентный аккумулятор (x4 шага)
    • Mixed Precision Training
    • Adaptive Gradient Clipping
  4. Сбалансированная генерация
    Динамический штраф для спецтокенов:

    penalty = special_penalty * (1 - seq_len/max_len) + min_penalty

Установка на Windows

Системные требования

  • Оборудование:
    NVIDIA GPU с поддержкой CUDA 12.6 (16GB+ VRAM, тестировано на RTX 4060Ti)
  • ОС:
    Windows 10/11 x64
  • ПО:
    Python 3.11

Установка зависимостей

# Основные пакеты
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
pip install transformers pandas tqdm pathlib regex datasets

# Triton для Windows
pip install -U 'triton-windows<3.4'

Настройка окружения для JIT-оптимизаций

    Установите Visual Studio 2022 с компонентами:

        Разработка классических приложений на C++

        Пакет SDK для Windows (10/11)
       

    Убедитесь, что установлены:

        Windows 10/11 SDK (включается при установке VS)

        Обновления Windows (актуальная версия ОС)

Отключение JIT-оптимизаций (опционально)

Если не требуется использовать torch.compile:


# Удалите строку компиляции модели в вашем коде:
# model = torch.compile(model)

Нужно скачать любой датасет с https://huggingface.co/models?sort=trending&search=rus в формате parquet, переименовать его в train.parquet
запуск 
# python train.py

About

Ее...маленькая транформер модель от ИИ

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages