로컬에 llama2받아서 ollama로
파인튜닝하고 langchain연결해서
rag도 하려고 하는데
비슷한 거 해본 사람 있어?

연산량이랑 램 필요량을 알고 싶음
메타에서 떠드는 만큼의 성능이 실제로 나오는지도 궁금