Description 📝 Introduction
하드웨어 친화적인 뉴럴넷을 위해 weight를 [-1, 1]로 Quantization합니다.
Why?
학위논문을 위한 초석입니다. BinaryConnect는 BNN 계열의 뿌리입니다.
Issue card
Binarized Linear Operation 추가
Binarized Conv2d Operation 추가
Binarized Linear Layer 추가 - weight clipping 기능 포함
Binarized Conv2D Layer 추가 - weight clipping 기능 포함
template 구조 최신화
Pytorch-lightning을 이용한 Model부 구현
W&B 붙이기
Config Manager 붙이기 - Hydra
Hyper parameter Tuner 붙이기
TorchServe 붙이기 - Dockerfile
E2E 테스트 구성
Schedule
Binarized Linear Operation 추가 - ~7월
Binarized Conv2d Operation 추가 - ~8월 첫째주
Binarized Linear Layer 추가 - weight clipping 기능 포함 - ~8월 둘째주
Binarized Conv2D Layer 추가 - weight clipping 기능 포함 - ~8월 둘째주
template 구조 최신화 - ~8월 셋째주
Pytorch-lightning을 이용한 Model부 구현 - ~8월 셋째주
W&B 붙이기 - ~8월 넷째주
Config Manager 붙이기 - Hydra - ~8월 넷째주
Hyper parameter Tuner 붙이기 - ~9월 첫째주
TorchServe 붙이기 - Dockerfile - ~9월 첫째주
E2E 테스트 구성 - ~9월 첫째주
Reference
Reactions are currently unavailable
You can’t perform that action at this time.