본문 바로가기 메뉴 바로가기

지속 가능한 꾸준함

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

지속 가능한 꾸준함

검색하기 폼
  • 분류 전체보기 (704)
    • Math (19)
      • Linear Algebra (18)
      • Probability (0)
    • 언어의 마술사 (2)
    • Deep Learning (143)
      • PyTorch (34)
    • Problem Solving (39)
      • 백준 온라인 저지 (33)
      • 프로그래머스 (1)
      • Softeer (2)
    • IDE (5)
    • Python (54)
    • Git (12)
    • 인생 (39)
    • 영어 (53)
    • Docker (11)
    • CMake (8)
    • Contribution 일지 (39)
    • C++ (22)
    • CUDA (5)
    • 잡담 (9)
    • QT (3)
    • 기타 (189)
    • 맛집 (0)
    • Github Actions (2)
    • 가슴이 웅장해지는 인터뷰 (1)
    • 노래 (0)
    • Computer Vision (4)
  • 방명록

2025/11/19 (1)
INT v.s. FP: A Comprehensive Study of Fine-GrainedLow-bit Quantization Formats 논문 Gemini 3.0 Pro Preview 요약

https://arxiv.org/pdf/2510.25602 내 분야는 아니지만 Gemini 3.0 Pro Preview 일단 그냥 한 번 써보고 싶어서, 그리고 요새 핫한 분야로 보여서 한 번 요약만해봄 1. Key Terms & Definitions (핵심 용어 및 정의)Quantization Granularity: 텐서 내에서 Scale Factor를 적용하는 범위를 의미합니다. 본 논문에서는 Per-tensor나 Per-channel과 같은 Coarse-grained 방식과 대비되는 Block-wise (세밀한 블록 단위) 방식을 중점적으로 다룹니다.MX Format (Microscaling): OCP(Open Compute Project)에서 제안한 데이터 포맷으로, 32개 요소(Element)마..

Deep Learning 2025. 11. 19. 11:38
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 백준 1766
  • 순열
  • ㅂ
  • LCA
  • 가장 긴 증가하는 부분 수열
  • 조합
  • cosine
  • 백준 11053
  • 백트래킹
  • 인공지능을 위한 선형대수
  • 이분탐색
  • 위상 정렬 알고리즘
  • Lowest Common Ancestor
  • 파이참
  • MOT
  • 문제집
  • 백준 11437
  • 단축키
  • PyCharm
  • FairMOT
  • C++ Deploy
  • 백준
  • 자료구조
more
«   2025/11   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바