Published on2026년 4월 15일Transformer 아키텍처 완전 가이드 2025: Self-Attention, Positional Encoding, Multi-Head, GPT vs BERT — ChatGPT 뒤의 수학transformerattentionself-attentiongptbertneural-networkllmdeep-learningpositional-encodingmulti-head-attentionChatGPT, Claude, Gemini의 공통 기반인 Transformer를 완전 분석. Attention 메커니즘, positional encoding, multi-head, encoder vs decoder, GPT와 BERT의 차이까지 — Transformer의 모든 것을 720줄로 수학과 함께 파헤친다.
Published on2026년 3월 17일PyTorch 완전 정복 가이드: Zero to Hero — 텐서부터 분산 학습까지pytorchdeep-learningaipythonneural-network2026-032026-03-17PyTorch의 기초부터 고급 기법까지 완전히 정복하는 가이드. 텐서 연산, 자동 미분, CNN/RNN/Transformer 구현, 분산 학습까지 실전 예제와 함께 단계별로 학습합니다.
Published on2026년 3월 8일KAN(Kolmogorov-Arnold Networks) 논문 분석: MLP를 대체하는 학습 가능한 활성화 함수 아키텍처ai-paperskankolmogorov-arnoldneural-networkmlpdeep-learning2026-032026-03-08Kolmogorov-Arnold Networks(KAN) 논문을 심층 분석합니다. Kolmogorov-Arnold 표현 정리의 수학적 배경, B-스플라인 활성화 함수, MLP 대비 정확도·해석가능성 비교, 그리고 실전 구현 코드를 다룹니다.