Notebook Refiner Workflow
기존 Jupyter Notebook을 **학습 자료 수준(Study Material Quality)**으로 다듬기 위한 워크플로우입니다. 단순 코드 정리(Linting)를 넘어, **"왜(Why)"**에 대한 설명과 재현 가능성(Reproducibility), 그리고 **시각적 이해(Visual Understanding)**를 확보하는 데 집중합니다.
1단계: 분석 및 기준 확인 (Analyze & Context)
- Context Loading:
this document를 읽어 'High Quality Notebook'의 기준을 로드합니다. - Current State Check: 리팩토링할 노트북을 열고
resources/checklist.md와 대조하여 부족한 점을 파악합니다.- Structure: 흐름이 논리적인가?
- Structure: 흐름이 논리적인가?
- Dependency: 환경 설정이 명시되었는가?
- Filename:
docs/notebooks/[Topic]_Analysis.ipynb이름 규칙을 유지하며, 기존 파일을 덮어쓰거나 수정합니다.
2단계: 리팩토링 및 표준화 (Refactor)
기능 변경 없이 코드의 가독성과 구조를 개선합니다.
- Code Quality: 변수명을 직관적으로 변경하고(
df->titanic_df), 셀의 단위를 적절히 나눕니다. - Output Cleaning: 불필요하게 긴 로그를 숨깁니다.
- Imports: 모든 import 문을 최상단 셀(
🔧 Setup & Imports)로 이동합니다.
3단계: 학습 요소 보강 (Enrichment)
"Master Class" 수준의 깊이를 더하기 위해 다음 요소들을 반드시 포함시킵니다.
- Narrative (스토리텔링): 코드 실행 전후에 **"이론적 배경"**과 **"직관적 설명"**을 한글로 추가합니다. (예: "왜 ReLU를 사용하는가?", "이 Loss가 줄어든다는 것은 무엇을 의미하는가?")
- Visualization (시각화): 텍스트 결과만으로는 부족합니다.
- Data: 분포, 상관관계 등을 산점도나 히스토그램으로 확인.
- Training: Loss Curve, Accuracy Trend를 그래프로 시각화.
- Result: 오분류 이미지(Misclassified), Confusion Matrix 등 시각적 검증.
- Experimentation (실험): Hyperparameter(Learning Rate, Batch Size 등)를 변수로 추출하여, 독자가 값을 바꿔가며 실험해볼 수 있도록 구성합니다.
- Evaluation (평가): 단순 Loss 외에 Accuracy, F1-Score 등 **"해석 가능한 지표"**를 출력합니다.
4단계: 문서화 및 구조화 (Document)
코드를 체계적으로 정리하여 "책"처럼 읽히게 만듭니다.
- Why & Context: "무엇을 하는 코드인가"보다 **"왜 이렇게 짰는가"**를 주석이나 마크다운으로 한글로 설명합니다.
- Headers: 적절한 Markdown Header(
#,##)를 사용하여 목차를 구성합니다.
5단계: 검증 및 인사이트 (Verify & Insight)
- Restart & Run All: 커널을 재시작하고 에러 없이 끝까지 실행되는지 검증합니다.
- Visual Check: 그래프의 Title, Label, Legend가 완벽한지 확인합니다.
- Key Takeaways: 노트북의 맨 마지막에 **"무엇을 배웠는가"**를 요약하는 섹션을 한글로 추가합니다.
Standards & Rules
Notebook Refiner Standards
Purpose
To ensure Jupyter Notebooks are not just "functioning code dumps" but educational learning materials and reproducible assets.
Core Philosophy: "Readability & Reproducibility"
A notebook is a document meant to be read by humans, not just a script for machines.
Refactoring Standards
1. Structure (Flow)
- Imports: All imports must be in the first cell.
- Logical Flow: Data Load → EDA → Preprocessing → Modeling → Evaluation.
- Kernel Check: Must specify required environment (e.g.,
venv, python version).
2. Code Quality (Refactor)
- Naming: Use descriptive names (
titanic_df) over generic ones (df). Follow conventions (X,y,model). - Granularity: One logical step per cell. Don't mix loading and training in one massive cell.
- Output: Suppress verbose logs (e.g., strict
fit()output).
3. Documentation (Context)
"Explain Why, Not What"
- Bad: "This code splits the data." (Redundant)
- Good: "We use
stratify=yto maintain class balance in the test set." (Insightful) - Headers: Use clear Markdown headers (
#,##) to navigate structure.
4. Verification (Reproducibility)
- Restart & Run All: The notebook must run from top to bottom without error after a kernel restart.
- Visuals: All plots must have Titles, Axis Labels, and Legends.