"말한 것을 버리지 않는다.
축적하고, 검색하고, 나처럼 생각하게 만든다."
parksy-logs 레포 전체 점검에서 시작해서 말투 학습 → fine-tuning 실행까지 한 세션에 돌파한 날.
DONE 레포 상태 점검 — 170 로그, 9.9K processed, Capture APK 동기화 정상
DONE 8,391 발화 추출 + 말투 분석 (씨발 1,100회, 질문형 43.3%, 공장 메타포 1,513회)
DONE Voice Profile 생성 — parksy-voice.json + SYSTEM_PROMPT.md + extract_voice.py
DONE 랜딩 페이지 리뉴얼 — Use Cases 3시즌 + Voice Profile 시각화
DONE Fine-tuning 데이터 파이프라인 — 1,561쌍 추출, GitHub Actions 자동 빌드
DONE 나레이션 브릿지 — generate_narration.py (parksy-image 호환)
RUNNING OpenAI fine-tuning — gpt-4o-mini, 500쌍, 3 epochs, ~$5
INSIGHT RAG(검색 증강)는 170개 로그 규모에서는 불필요 — Claude Code가 직접 읽으면 됨. Fine-tuning(모델 학습)은 Claude Code가 못 하는 영역이라 의미 있음.
INSIGHT AI > 머신러닝 > 딥러닝 > LLM. Fine-tuning = 이미 만들어진 LLM에 내 데이터를 곱하는 것. Gemini(GCP $300 크레딧)도 대안이지만 욕설 safety filter 리스크 있음.
VERDICT RAG 불필요 최종 판정.
RAG는 토큰 비용 절감 + 대량 검색 속도를 위해 나온 기술. Claude Max 무제한이면 토큰 비용 = 0 → 비용 논거 소멸. 시간 효율은 1만 개 이상에서만 유의미한데, 28개 레포 + 시즌제 구조에서는 한 시즌 200~300개 — Claude Code 직독직해 30초면 끝. 1만 개를 한 통에 넣고 벡터 검색하는 시나리오 자체가 이 아키텍처에서 발생하지 않음.
시즌 간 비교가 필요하면 시즌별 요약본 하나면 충분. Supabase + 임베딩 파이프라인은 삭제하지 않되 (헌법 제2조 — 반대 분개), 활성화 불필요. 만약 앱 내 검색 기능이나 외부 API 서비스가 필요해지는 시점에 다시 꺼내면 됨.
DAW Reaper DAW + Impact LX61+ 원격 세팅. 자동 로그인(Sysinternals Autologon) + BIOS 자동 전원 켜짐 설정 완료. Focusrite ASIO 드라이버 충돌로 WaveOut 모드로 우회. GUI 원격 클릭 삽질 (DPI 150% 좌표 불일치, UI Automation으로 해결). 핵심 교훈: Reaper는 ReaScript(Lua)로 터미널 제어 가능 — GUI 클릭 필요 없음. 마스터 키보드 소리 출력은 다음 세션에서 ReaScript로 완료 예정.
"말을 버리지 않으면 말투가 된다.
말투가 되면 성우가 된다.
성우가 되면 방송국이 된다."
Parksy Logs · DTSLIB Knowledge Layer