구독자 3504명
알림수신 173명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
523
정보
RWKV-5 14% 학습 벤치마크
[6]
521
3
522
정보
AI가 잊게 만드는 방법
[1]
543
6
521
정보
AI로 좋은 퀄리티의 데이터셋을 감별하자
[7]
825
10
520
정보
Naver에서 귀중한 자료를 줬습니다.
[15]
1801
21
519
정보
강화학습에 LLM을 사용한 두 논문 소개
[3]
966
23
518
정보
[NIA] 2024년 초거대AI 데이터 후보과제 발굴 수요조사
342
4
517
정보
양자화 없이 대형 모델을 M1/M2,소비자용 GPU에서 파인튜닝
[2]
585
4
516
정보
하드웨어 선택에 아마도 도움이 될 글
[1]
512
2
515
정보
Mistral-7B Fine-Tuning: A Step-by-Step Guide
[3]
2098
14
514
정보
RingAttention
[1]
487
4
513
정보
따끈따근한 논문이 있네요.-EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS-
[6]
1356
12
512
정보
mistral 7b 기반 dolphin2.0 출시
745
6
511
정보
mistral 7b기반 OpenOrca 출시
[4]
1223
6
510
정보
해외 모델의 토큰 수를 줄이는 법
[1]
762
9
509
정보
토큰 != 글자수
[2]
596
3
508
정보
사전 데이터가 필요하니...???
[6]
990
14
507
정보
MistralAI 7B: 라마2 13B를 능가하는 새로운 7B 기초모델
[8]
2128
17
506
정보
한국어 LLM 리더보드 오픈
[4]
780
6
505
정보
외화 수수료 적게 내는 팁
[4]
401
7
504
정보
한국어 llama2 모델 komt-llama2-13b-v1
[15]
1698
15