Fine-tuning OpenLLaMA-7B with QLoRA for instruction following
OpenLLaMA-7B를 무검열화된 Wizard-Vicuna conversation dataset으로 파인튜닝한 과정.
예전에 임베딩 모델 성능비교 글을 썼던 저자. 그 글도 꽤 유익했던 걸로 기억한다.
완성된 모델 다운로드:
https://georgesung.github.io/ai/qlora-ift/georgesung/open_llama_7b_qlora_uncensored
트레이닝 코드:
https://github.com/georgesung/llm_qlora/tree/main
구글 코랩 노트북:
https://colab.research.google.com/drive/1IlpeofYD9EU6dNHyKKObZhIzkBMyqlUS?usp=sharing
관련레딧:
https://www.reddit.com/r/LocalLLaMA/comments/14phxe8/open_llama_7b_uncensored_huggingface_qlora/