뉴스
구독자 3504명 알림수신 173명
제한없는 언어모델을 위한 채널
전체글 개념글
최근 최근 방문 채널
    최근 방문 채널
      번호 제목
      작성자 작성일 조회수 추천
      523 정보 RWKV-5 14% 학습 벤치마크 [6]
      521 3
      522 정보 AI가 잊게 만드는 방법 [1]
      543 6
      521 정보 AI로 좋은 퀄리티의 데이터셋을 감별하자 [7]
      825 10
      520 정보 Naver에서 귀중한 자료를 줬습니다. [15]
      1801 21
      519 정보 강화학습에 LLM을 사용한 두 논문 소개 [3]
      966 23
      518 정보 [NIA] 2024년 초거대AI 데이터 후보과제 발굴 수요조사
      342 4
      517 정보 양자화 없이 대형 모델을 M1/M2,소비자용 GPU에서 파인튜닝 [2]
      585 4
      516 정보 하드웨어 선택에 아마도 도움이 될 글 [1]
      512 2
      515 정보 Mistral-7B Fine-Tuning: A Step-by-Step Guide [3]
      2098 14
      514 정보 RingAttention [1]
      487 4
      513 정보 따끈따근한 논문이 있네요.-EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS- [6]
      1356 12
      512 정보 mistral 7b 기반 dolphin2.0 출시
      745 6
      511 정보 mistral 7b기반 OpenOrca 출시 [4]
      1223 6
      510 정보 해외 모델의 토큰 수를 줄이는 법 [1]
      762 9
      509 정보 토큰 != 글자수 [2]
      596 3
      508 정보 사전 데이터가 필요하니...??? [6]
      990 14
      507 정보 MistralAI 7B: 라마2 13B를 능가하는 새로운 7B 기초모델 [8]
      2128 17
      506 정보 한국어 LLM 리더보드 오픈 [4]
      780 6
      505 정보 외화 수수료 적게 내는 팁 [4]
      401 7
      504 정보 한국어 llama2 모델 komt-llama2-13b-v1 [15]
      1698 15
      전체글 개념글
      Keyword search form input