undefined분 읽기
GPU 시스템 12 - Warp Shuffle과 Warp-Level Primitive
warp 내부 데이터 교환을 shared memory 없이 처리하는 warp-level primitive의 의미
Lectures 카테고리의 모든 포스트
warp 내부 데이터 교환을 shared memory 없이 처리하는 warp-level primitive의 의미
reduction kernel을 통해 shared memory, warp primitive, synchronization을 한 번에 이해하기
softmax kernel 안에 reduction, memory traffic, numerical stability가 어떻게 함께 들어가는지
layernorm과 RMSNorm을 통해 normalization kernel이 왜 memory-bound가 되기 쉬운지 이해하기
vectorized memory access와 alignment가 bandwidth 활용에 어떤 차이를 만드는지
tensor core가 어떤 종류의 연산에서 큰 성능 차이를 만들고 mixed precision과 어떻게 연결되는지
memory load와 compute를 더 겹치게 만드는 asynchronous copy와 double buffering의 감각
GPU 시스템 시리즈를 마무리하며 profiling, Triton, FlashAttention 관점까지 연결하기