재영의 기술 블로그
홈 아카이브 소개 게임

Lectures 카테고리

Lectures 카테고리의 모든 포스트

February 8, 2026 undefined분 읽기

컴퓨터 구조 07 - 메모리 계층 구조

레지스터에서 HDD까지 이어지는 메모리 계층과 캐시의 동작 원리

Lectures
더 읽기
February 17, 2026 undefined분 읽기

컴퓨터 구조 08 - 가상 메모리와 MMU

가상 메모리가 프로세스 격리를 가능하게 하는 원리와 MMU, 페이지 테이블, TLB의 동작

Lectures
더 읽기
February 24, 2026 undefined분 읽기

컴퓨터 구조 09 - I/O와 DMA

CPU가 외부 장치와 데이터를 주고받는 방식과 DMA를 통한 효율적 데이터 전송의 원리

Lectures
더 읽기
March 5, 2026 undefined분 읽기

컴퓨터 구조 10 - 멀티코어와 현대 프로세서

클럭 속도의 한계를 넘어 멀티코어로 전환된 이유와 현대 프로세서 아키텍처의 핵심 개념

Lectures
더 읽기
January 6, 2026 undefined분 읽기

분산 LLM 학습 01 - 왜 LLM 학습은 분산 시스템 문제가 되는가

여러 GPU를 붙이는 순간 학습 코드는 계산만의 문제가 아니라 메모리와 통신, 장애 복구까지 포함한 시스템 문제가 된다

Lectures
더 읽기
January 9, 2026 undefined분 읽기

분산 LLM 학습 02 - Synchronous SGD와 Data Parallel의 진짜 비용

가장 기본적인 분산 학습 방식인 data parallel은 단순해 보이지만 gradient 동기화와 메모리 복제 비용을 함께 안고 있다

Lectures
더 읽기
January 12, 2026 undefined분 읽기

분산 LLM 학습 03 - All-Reduce, Ring, 그리고 통신 비용 읽는 법

분산 학습에서 가장 자주 등장하는 collective인 all-reduce를 이해해야 gradient synchronization 비용을 제대로 읽을 수 있다

Lectures
더 읽기
January 15, 2026 undefined분 읽기

분산 LLM 학습 04 - PyTorch DDP는 내부에서 무엇을 하는가

DDP는 단순 래퍼가 아니라 autograd hook, gradient bucket, process group을 사용해 동기화를 조직하는 런타임이다

Lectures
더 읽기
January 18, 2026 undefined분 읽기

분산 LLM 학습 05 - Global Batch Size, Gradient Accumulation, Learning Rate Scaling

GPU 수를 늘리는 일은 단순한 throughput 증가가 아니라 optimizer가 보는 batch 의미를 바꾸는 일이다

Lectures
더 읽기
← Previous
1 2 3 4 5 6 7 8 9 10 11 12 13 14
Next →

© 2025 Jae · Notes on systems, software, and building things carefully.

RSS