구독자 3500명
알림수신 173명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
543
정보
챈 제작 데이타셋 공동 작업에 참고할만한 도구
260
8
542
정보
우바부가 원클릭 인스톨 안되는 사람들
[3]
303
4
541
정보
gpt3.5가 20B가 아닐수도 있다는 레딧 글
[10]
780
2
540
정보
속보) 엔당 새 드라이버에서 메모리 정책 변경
[7]
639
6
539
정보
KT 자체 모델 믿:음 7B 공개
[11]
1114
7
538
정보
RedPajama-Data-v2 출시 - 30조개의 토큰...?
[2]
427
8
537
정보
gpt-3.5-turbo의 파라미터는 고작 20B??
[31]
1211
14
536
정보
RWKV-5 7B 학습 왜 잘됨?
[1]
480
3
535
정보
RWKV-5 1.5B가 학습 완료되었습니다.
[1]
371
5
534
정보
Agentlm-70b 모델 Agent 기능 gpt 3.5와 비슷하다 주장.
[2]
357
2
533
정보
vllm은 버려라
[7]
997
0
532
정보
다양한 LLM 포맷의 perplexity, VRAM, 속도,, model size, 로딩시간 비교
[3]
734
3
531
정보
디코딩 중 트랜스포머가 사용하는 VRAM 사용량
[8]
680
8
530
정보
fuyu-8b 모델 멅티모달 이미지+텍스트 질문에 텍스트 답변 제공.
[2]
384
5
529
정보
아마존 미세조정한 MistralLite 모델 긴 문맥 및 검색 응답에서 더 나은 성능
[1]
486
4
528
정보
라마+SD=오픈소스 달리3?
[2]
709
3
527
정보
(해결됨)지금 최신버전 transformer로 라마 학습하실 분 주의
[5]
1156
17
526
정보
컨퍼런스 워크샵
[5]
519
0
525
정보
In-Context Pretraining: Language Modeling Beyond Document Boundaries
[6]
555
5
524
정보
프로메테우스 - GPT4 의 평가능력을 대체할 수 있는 오픈소스 LLM
[2]
1175
18