구독자 3502명
알림수신 173명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
1220
질문
컴퓨터 사양 조언을 구하고 싶습니다
[8]
362
0
1219
질문
안녕하세요 뉴비입니다
[14]
373
0
1218
질문
LLaMa-3-70B 4bit 돌려보는 중인데 이상동작을 합니다..
[3]
676
0
1217
질문
양자화도 모르는 그냥 싹다 노베이스인데 궁금해서 올립니다
[5]
563
1
1216
질문
AI그림쪽은 AI로 생성한 데이터셋으로 훈련할수록 퀄리티 떨어진다는 논문 있었는데
[4]
512
1
1215
질문
command-r-plus:104b-q2_K 모델을 돌려보는중에..
[7]
489
2
1214
질문
Llama 3 70B 로컬에서 돌려보신분 계신가요?
[7]
1002
1
1213
질문
nomic embedding 사용해보신 분?
[3]
295
0
1212
질문
양자화 모델 이름뒤의 K, M, S 같은건 뭔가요?
[2]
712
0
1211
질문
내가 원하는 분야로 세분화한 MOE는 만들 수 없을까?
[12]
631
0
1210
질문
eos토큰이랑 <s>토큰 없이 fine tuning하면
[1]
413
3
1209
질문
axolotl로 커스텀 데이터셋 활용해서 finetuning 시도하는데 계속 에러가 발생합니다.
[3]
480
1
1208
질문
양자화하는 데 보통 시간이 이렇게 오래 걸리나요?
[1]
592
0
1207
질문
라마3 도 맥에서 돌아가나요??
[5]
779
0
1206
질문
Mac에 KoboldCPP 설치법 질문 드립니다...
[3]
248
0
1205
질문
로컬로 LLM(llama3 8b, 70b)을 실행하려면 사양이 얼마나 필요한지 궁금합니다.
[10]
1277
1
1204
질문
gpt4 돈내고 쓰기 vs 오픈소스 모델 파인튜닝해서 쓰기
[8]
807
0
1203
질문
LLM용으로 m3 max랑 rtx 4090 어떤게 좋을까요
[4]
534
-1
1202
질문
llama-3-instruct 모델 offline 로컬에서 돌리려면 consolidated.00.pth pickle 필수인가요?
[2]
413
0
1201
질문
VRAM 사용량에 관련한 질문입니다!
[16]
626
0