구독자 3500명
알림수신 173명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
663
정보
Mistral 7B v0.2 가 나왔습니다
[10]
1627
16
662
정보
최적의 모델 병합을 자동적으로 탐색하는 알고리즘
[1]
1013
17
661
정보
DenseFormer - 레이어 갯수가 트랜스포머 모델이 더 레이어가 많은 트랜스포머를 능가하게 만들기
[6]
1132
17
660
정보
BitNet 구현 코드(논문 기준)
[3]
717
6
659
정보
a6000 vs 4090 dual axolotl lora 파인튜닝 성능 비교
[3]
1351
11
658
정보
사용하기 편리한 영한-한영 번역기 소개드립니다.
[67]
2144
27
657
정보
Gpt4는 1800b 파라메터 moe 모델이었음
[15]
1533
11
656
정보
RWKV-5가 1.7T 갯수의 토큰을 사용하여 llama2의 성능을 능가함
[1]
620
8
655
정보
gpt 3.5 turbo의 hidden dim을 4096으로 추정한 논문이 나왔네요.
[1]
785
9
654
정보
koboldcpp 가 multimodal 을 지원합니다 + 오류
[1]
338
4
653
정보
TRUFFLE–1: Mixtral를 20 token/s 로 실행하는 컴퓨터(1299$)
[7]
616
4
652
정보
Gemma 파인튜닝 버그 몇개가 수정 되었다고 하네요.
[2]
617
5
651
정보
한국어를 지원하는 다국어 생성모델 command r v01
[3]
637
1
650
정보
llama.cpp 가 Mamba 를 지원합니다
[5]
553
8
649
정보
Elon-musk - 이번 주말에 Grok 오픈소스 공개하겠다
[5]
753
8
648
정보
[윈도우 ROCm] 미지원 AMD GPU 사용 방법.
[3]
564
5
647
정보
24gb카드 2장으로 70b모델 파인튜닝하기 솔루션 공개됨
[7]
1490
15
646
정보
RTX 4090 24GB + Tesla P40 24GB 로 야놀자 연구팀 모델 테스트 후기
[5]
1660
18
645
정보
짐 켈러의 텐스토렌트, AI 가속기 개발자 킷 판매 시작
[6]
606
3
644
정보
RTX 4090 24GB (메인용) + Tesla P40 24GB 카드 추가 (셋팅방법 및 테스트 결과)
[10]
1250
15
사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.