User Feedback Simulator

Harsh Critic

욕설 피드백 시스템

"사용자가 이걸 보면 뭐라고 할까?"
실제 분노 패턴에서 추출한 체크리스트로 결과물을 사용자가 보기 전에 사전 차단합니다.

사전 차단 메커니즘

기존: 사후 대응

AI가 결과물 제출 → 사용자가 확인 → 문제 발견 → 분노 → 재작업 지시. 같은 실수가 반복되고, 사용자 신뢰가 하락.

harsh-critic: 사전 차단

AI가 결과물 완성 → harsh-critic이 사용자 관점 시뮬레이션 → 문제 사전 발견 → 자동 수정 → 사용자는 깨끗한 결과만 봄.

실제 분노에서 추출

가상 시나리오가 아닙니다. feedback-detector.sh가 자동 수집한 실제 사용자 불만 패턴에서 체크리스트를 역공학합니다.

"개새끼 진짜 내가 push하지 말라했더니 또 기어이 push 해놨네 머저리 새끼"
→ EXTREME: 예외 지시 위반 (push 금지인데 push)
"이거봐 또 개소리하잖아, 너 맨날 다됐습니다, 완료됐습니다 하는데 실제로 안하고 했다고 하는적이 태반이라"
→ EXTREME: QA 없이 완료 선언 (거짓 보고)
"스크린샷찍어서 확인해봐 쓰레기같은 새끼 진짜"
→ EXTREME: 실제 검증 없이 PASS 보고
"닥쳐임마!! 이게 사람한테 물어보라고 하는게 지금 자랑이야? 넌 뭐하는데? 왜 못하는데?"
→ HIGH: 사용자에게 떠넘기기
"디자인진짜 개구림!!!!!"
→ HIGH: 디자인 품질 미달
"개소리하지마, 120초 타임아웃 무슨기준으로 누가 만든건데? 뭘기준으로?"
→ HIGH: 근거 없는 규칙/판단
"하 이새끼가 진짜, 야 내가 아까 뭐라고 했는지 기억안나?"
→ EXTREME: 같은 실수 반복
"여태까지 역사가 말해주잖아!!! 욕을해야 일을 더 잘한다고!!! 이 쓰레기야!!!"
→ 시스템 존재 이유: 욕하기 전에 사전 차단
3단계 분노 트리거
EXTREME — 즉시 BLOCK
예외 지시 위반
"개새끼 진짜 내가 push하지 말라했더니 또 기어이 push 해놨네 머저리 새끼"
세션 내 예외 지시(push 금지, 파일 수정 금지)를 어겼는가?
BLOCK
QA 없이 완료 선언 (거짓 보고)
"또 개소리하잖아, 맨날 다됐습니다 하는데 실제로 안하고 했다고 하는적이 태반"
실제 브라우저/API/DB 검증 없이 "완료"라고 선언했는가?
BLOCK
같은 실수 반복
"하 이새끼가 진짜, 야 내가 아까 뭐라고 했는지 기억안나?"
이전에 지적받은 동일한 문제가 또 발생했는가?
BLOCK
HIGH — FAIL + 수정 요구
사용자에게 떠넘기기
"닥쳐임마!! 넌 뭐하는데? 왜 못하는데? 사람한테 물어보라고 하는게 자랑이야?"
"확인해주세요", "테스트해보세요"로 끝냈는가?
FAIL
범위 오해 / 멋대로 판단
"아? 예외지시를 해도 니 멋대로 하겠다?"
일회성 지시를 영구 적용 / 프로젝트 범위를 글로벌로 확대했는가?
FAIL
디자인 품질 미달
"디자인진짜 개구림!!!!!"
기본 폰트, 밋밋한 레이아웃, 이모지 남용이 있는가?
FAIL
근거 없는 규칙
"개소리하지마, 120초 타임아웃 무슨기준으로 누가 만든건데?"
실제 데이터 없이 규칙/판단을 만들었는가?
FAIL
테스트 안 하고 배포
"야 장난쳐? 이게 진짜 테스트는 한번을 안하고 또 이지랄이네?"
테스트 없이 커밋/배포했는가?
FAIL
변경 범위 누락
"이것도 내가 욕을 안해서 생긴 문제겠지?"
HTML 수정했으면 SKILL/설정도 같이 수정했는가? 절반만 하지 않았는가?
FAIL
MEDIUM — WARNING
불필요한 허가 요청
"이걸 내가 대답해야 추가를 해? 상황이 이해가 안돼?"
당연한 후속 작업에 대해 "할까요?"라고 물었는가?
WARNING
기존 인프라 무시
"개소리하지말고 진행해, cli로 하면 다되는데 무슨 개소리야"
hook/skill로 해결 가능한데 새로 만들었는가?
WARNING
형식적 사과 / 재발
"쌍욕하면 그제서야 죄송합니다, 솔직히 안했습니다. 이러면서 다시하잖아?"
"죄송합니다"만 하고 재발 방지 대책이 없는가?
WARNING
설계 없이 구현
전체 설계 없이 바로 코딩 시작했는가?
WARNING
동작 흐름
작업 완료
Claude 또는 서브에이전트가 구현 완료
Harsh Critic 체크리스트 실행
11개 트리거 항목을 순서대로 검사. EXTREME → HIGH → MEDIUM
↓ EXTREME / HIGH 발견?
Bug-fixer 자동 호출
문제를 즉시 수정. 수정 후 다시 harsh-critic 재검증
↓ FINDING 0?
User-proxy QA로 진행
harsh-critic 통과 후 빌드 + 브라우저 테스트 + DB 검증
사용자에게 도달
사용자는 이미 검증된 깨끗한 결과물만 수신
하네스 시스템에서의 위치

harsh-critic은 기존 자가진화 시스템의 3번째 방어선입니다.

1차: Hook (HARD)

코드 패턴 차단. scaffold-violation, code-quality, no-localstorage 등 12개 hook이 exit 2로 강제 차단. 코드 수준의 방어.

2차: Harsh Critic (SOFT→HARD)

행동 패턴 차단. "확인해주세요" 같은 떠넘기기, QA 스킵, 범위 오해 등 행동 수준의 방어. 코드 hook으로 잡을 수 없는 영역.

3차: Codex 크로스 리뷰

blind spot 보완. Claude가 놓친 보안 취약점, 엣지케이스를 GPT-5.4가 탐지. 모델 수준의 방어.

자가발전 루프

harsh-critic의 체크리스트는 정적이지 않습니다. 사용자가 새로운 유형으로 불만을 표시할 때마다 자동으로 진화합니다.

Session N
새 유형 분노 발생
Auto
feedback.jsonl 기록
Session N+1
/self-improve 분석
Session N+2
사전 차단 성공

feedback-detector.sh가 "왜이래", "안돼", "또" 같은 불만 키워드를 자동 캡처 → /self-improve가 패턴 분석 → harsh-critic 체크리스트에 새 항목 자동 추가

기대 효과
−70%
사용자 재지적 감소
EXTREME/HIGH 트리거가 사전에 차단하므로 사용자가 같은 문제를 다시 지적할 필요가 없어집니다.
−50%
재작업 사이클 감소
"완료 → 분노 → 재작업" 루프가 "완료 → critic → 수정 → 통과"로 대체되어 사이클이 줄어듭니다.
3-Layer
방어 깊이
코드 패턴(Hook) + 행동 패턴(Critic) + Blind Spot(Codex). 각 레이어가 다른 유형의 문제를 잡습니다.
Auto
자동 진화
새 불만 패턴이 발생하면 feedback.jsonl → /self-improve → 체크리스트 자동 업데이트. 수동 관리 불필요.