[논문] https://arxiv.org/abs/2309.12307

[깃헙] https://github.com/dvlab-research/LongLoRA

[모델] https://huggingface.co/Yukang


https://huggingface.co/Yukang/Llama-2-70b-longlora-32k

https://huggingface.co/Yukang/Llama-2-7b-longlora-100k-ft (100K 컨텍스트의 라마2 7B)

https://huggingface.co/Yukang/Llama-2-13b-chat-longlora-32k-sft

https://huggingface.co/Yukang/Llama-2-70b-chat-longlora-32k-sft (32K로 훈련된 최초의 70B 모델)




아래에 소개한 LongLoRA 논문에 따라 훈련된 긴 문맥의 모델들.


※ Pdf2text: 모델 학습 과정에서 PDF파일을 TXT로 변환시켰으며, 저자들은 이 변환 과정의 퀄리티가 언어모델의 학습결과에 상당한 영향을 준다는 판단 하에 관련 스크립트도 공개하였으므로 관심있는 이들은 참고하면 좋을 듯. 

https://github.com/dvlab-research/LongLoRA/blob/main/pdf2txt/README.md