구독자 3449명
알림수신 170명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
500
정보
기계 번역의 패러다임 전환: 대규모 언어 모델의 번역 성능 향상
[5]
847
9
499
정보
beomi/llama-2-ko-70b가 공개됨
[16]
1780
11
498
정보
SLI 크랙하는 방법중 부트영역에 라이센스를 심어 리눅스, 윈도우 모두 지원하는 방법
[1]
283
2
497
정보
한국어 llama2 모델 komt-llama2-7b-v1
[17]
2288
23
496
정보
단 하나의 예제로도 언어모델은 배울 수 있나요? [번역]
[3]
911
9
495
정보
GPTQ보다 빠른 awq 양자화
[5]
1124
6
494
정보
TinyLlama 1.1B 프로젝트 진행 중...
[4]
835
5
493
정보
4090 기준 우바부가 exllama v2 70b 2.55비트 양자화 모델 추론속도
[9]
1072
8
492
정보
OmniQuant: 대규모 언어 모델을 위해 전방향으로 보정된 양자화
[3]
881
13
491
정보
exllama의 가속화 [exllama_v2]!
[5]
837
7
490
정보
1.5B가 7B 모델과 성능벤치가 비슷하다..?
[2]
635
6
489
정보
llama2.mojo가 llama2.c 보다 빠르다네
[14]
606
9
488
정보
메두사: 다중 디코딩 헤드를 사용한 LLM 생성 가속 기술
[5]
1044
11
487
정보
새로 나온 기초모델 Persimmon-8B
[5]
635
7
486
정보
NVIDIA TensorRT-LLM 대규모 언어 모델을 크게 향상
[5]
642
4
485
정보
Llama.cpp, draft model 지원
[5]
360
6
484
정보
샘플 문장 딱 한개만 학습시키는 방법
[7]
747
5
483
정보
Falcon180B 출시
[21]
1247
12
482
정보
AI를 둘러싼 메타 내부의 드라마: 컴퓨팅 파워 갈등과 라마3에 대한 루머
[4]
631
9
481
정보
텍스트 추출이 너무 귀찮아서 만든 프로그램입니다.
[6]
1200
12