GPU 시스템
GPU 아키텍처, CUDA 커널, Triton, 그리고 실제 커널 최적화까지 이어지는 흐름
GPU가 실제로 어떻게 계산을 수행하는지 이해하고, 나중에는 직접 커널을 작성하고 최적화하고 싶은 엔지니어.
나사들어간 이야기
플랫폼 엔지니어링, 리눅스, 컴파일러, MLOps, 컴퓨터 구조를 다루는 긴 글들을 모았습니다. 용어만 훑는 대신, 실제로 판단할 때 필요한 감각을 만드는 데 초점을 둡니다.
처음 들어온 독자에게 좋은 시작점입니다.
새로 올라온 글과 진행 중인 시리즈를 모아봤습니다.
GPU 아키텍처, CUDA 커널, Triton, 그리고 실제 커널 최적화까지 이어지는 흐름
GPU가 실제로 어떻게 계산을 수행하는지 이해하고, 나중에는 직접 커널을 작성하고 최적화하고 싶은 엔지니어.
데이터 파이프라인부터 프로덕션 모니터링까지, ML 시스템 운영의 기초
모델 실험에서 프로덕션 운영으로 넘어가려는 ML 엔지니어, 데이터 사이언티스트, 백엔드 엔지니어.
유한 오토마타와 형식 언어부터 컴파일러 구현까지
언어 처리 이론과 실제 컴파일러 구현 사이의 연결을 함께 보고 싶은 독자.
GPU 시스템 시리즈를 마무리하며 profiling, Triton, FlashAttention 관점까지 연결하기
memory load와 compute를 더 겹치게 만드는 asynchronous copy와 double buffering의 감각
최적화된 중간 표현이 실제 기계어로 변환되는 과정과, 오토마타 이론에서 시작하여 컴파일러 구현까지 이어지는 여정의 마무리
tensor core가 어떤 종류의 연산에서 큰 성능 차이를 만들고 mixed precision과 어떻게 연결되는지
분산 학습 전략은 멋있는 기법을 조합하는 일이 아니라 현재 병목에 맞는 최소 구조를 선택하고 검증하는 일이다