Fine-tuning OpenLLaMA-7B with QLoRA for instruction following


OpenLLaMA-7B를 무검열화된 Wizard-Vicuna conversation dataset으로 파인튜닝한 과정.

예전에 임베딩 모델 성능비교 글을 썼던 저자. 그 글도 꽤 유익했던 걸로 기억한다. 


완성된 모델 다운로드: 

https://georgesung.github.io/ai/qlora-ift/georgesung/open_llama_7b_qlora_uncensored


트레이닝 코드:

https://github.com/georgesung/llm_qlora/tree/main


구글 코랩 노트북:

https://colab.research.google.com/drive/1IlpeofYD9EU6dNHyKKObZhIzkBMyqlUS?usp=sharing


관련레딧:

https://www.reddit.com/r/LocalLLaMA/comments/14phxe8/open_llama_7b_uncensored_huggingface_qlora/