이력서 문창식


지원 포지셔닝

AI Builder 포지션은 단순히 AI 기능을 개발하는 역할이 아니라 조직 안에 숨어 있는 반복 업무와 병목을 발견하고, 이를 실제 동작하는 AI 워크플로우와 내부 도구로 전환하는 역할이라고 이해했습니다.

저는 리서치 인턴 시절부터 현업의 수기 입력·문서 검증·리포트 작성 업무에서 반복되는 비효율을 직접 발견했고, 이후 열정과 성과를 인정받아 개발팀 정직원으로 전환해 OCR, LLM, 에이전트 워크플로우, 데이터 파이프라인, 내부 운영 도구를 직접 구현해 왔습니다.

특히 비개발 직군이 사용하는 업무 흐름을 관찰하고, 문제를 구조화한 뒤, 빠르게 프로토타입을 만들고 실제 운영 도구로 발전시킨 경험이 있습니다. 또한 Claude Code, Codex, opencode 등 AI 개발 도구를 활용해 개발·검증·문서화 프로세스를 표준화하며, AI를 개인 생산성 도구가 아닌 조직의 일하는 방식으로 확장하는 데 관심을 가지고 실행해 왔습니다.

이 포지션에서 저는 다음 강점을 제공할 수 있습니다.

  • 현업의 반복 업무와 운영 병목을 발견하고, 해결 가능한 문제로 재정의하는 역량
  • LLM, OCR, 멀티모달 문서 이해, 에이전트 워크플로우를 활용해 실제 동작하는 자동화 도구를 구현한 경험
  • 운영팀·리서치팀 등 비개발 직군의 업무 프로세스를 이해하고, 내부 도구로 실질적인 업무 효율을 만든 경험
  • Python/FastAPI/React/PostgreSQL/AWS 기반으로 프로토타입을 넘어 운영 가능한 시스템을 직접 배포·개선한 경험
  • AI 개발 도구와 에이전트 기반 워크플로우를 활용해 개발·검증·문서화 방식을 체계화한 경험

핵심 역량

  • AI 기반 업무 자동화: 수작업 문서 검증, 기사 수집/분류/리포트 생성, 리서치 데이터 정리 등 반복 업무를 AI 워크플로우와 내부 도구로 전환
  • AI Agent / LLM Workflow 설계: Gemini File API, OpenAI API, LangChain, 프롬프트 오케스트레이션, 배치 처리, 재시도/캐싱 전략을 활용한 실무형 에이전트 구현
  • 현업 문제 정의와 실행: 명확한 요구사항이 없는 상황에서 비효율을 먼저 발견하고, 프로토타입 제작부터 배포·운영까지 주도
  • Full-stack 구현력: Python, FastAPI, SQLModel, PostgreSQL, React, TypeScript, AWS 기반으로 백엔드·프론트엔드·인프라를 단독 구현
  • 조직 내 AI 활용 확산: 자동화 시도 과정과 한계, 해결 방안을 사내 기술 세션으로 공유하고, 팀 내 AI 도입 장벽을 낮추는 역할 수행

기술 스택

  • Backend: Python, FastAPI, SQLModel, PostgreSQL, Alembic
  • Frontend: React, TypeScript, Next.js, Ant Design, React Query, Zustand, Vercel AI SDK
  • Data / Crawling: Scrapy, Scrapyd, pandas, sentence-transformers, Trafilatura
  • AI / Automation: OpenAI API, Gemini API, LangChain, RAG, Embedding, Clustering, LLM Prompt Engineering, AI Agent Workflow
  • Infrastructure: Docker, AWS (EKS, Amplify, RDS, S3), Zyte
  • Security: JWT, PostgreSQL RLS, RBAC

경력

Logblack | 개발자

2023 ~ 현재


주요 프로젝트

1. 현업 리서치 업무 자동화 및 AI 활용 확산

역할: 1인 개발

프로젝트 개요

리서치팀은 수백 페이지 규모의 GRI/ESG 공시 PDF를 직접 확인하며, 공시 항목과 관련 데이터를 Excel 템플릿에 수기로 입력하고 있었습니다. 문서 분량이 크고 양식이 일정하지 않아 반복 입력·검수 부담이 컸고, 데이터가 Excel 중심으로 관리되어 재사용성도 낮은 상황이었습니다.

초기에는 PDF 구조에 맞춰 데이터를 추출하는 Python 스크립트를 작성해 자동화를 시도했습니다. 그러나 문서마다 구조가 달라 PDF별로 추출 규칙을 수정해야 했고, 개발팀이 아닌 리서치팀이 지속적으로 사용하기에는 유지보수 부담이 컸습니다.

이에 비개발 직군이 실제 업무에서 사용할 수 있는 방식은 규칙 기반 스크립트보다 OCR 기반 문서 인식 도구라고 판단했습니다. Bytedance Dolphin OCR 모델을 리서치·적용하고, 회사 지급 M2 Pro MacBook 환경에서도 대용량 PDF를 로컬로 처리할 수 있는 자동 입력 도구를 구현했습니다.

문제 정의 및 자동화 접근

  • 할당된 개발 과제가 아니었지만, 리서치팀의 반복 입력·검수 업무를 관찰해 자동화 가능한 업무 병목으로 재정의
  • PDF별 추출 규칙을 작성하는 스크립트 방식의 한계를 확인하고, 비개발 직군이 사용할 수 있는 OCR 기반 문서 인식 방식으로 전환
  • 기존 업무 흐름을 유지할 수 있도록, OCR 결과를 DB 마이그레이션에 사용되는 Excel 템플릿에 자동 입력하는 방식으로 설계
  • 자동화 시도 과정과 한계, 개선 방향을 사내 기술 세션으로 공유하며 조직 내 AI/OCR 활용 논의를 촉진

주요 구현 내용

  • Bytedance Dolphin OCR 모델을 리서치·적용해 수백 페이지 규모의 GRI/ESG 공시 PDF를 로컬 환경에서 처리하는 OCR 파이프라인 구현
  • 대용량 PDF를 페이지 단위로 처리하고, 추출 결과를 검수 가능한 형태로 정리하는 처리 흐름 구성
  • OCR 결과에서 공시 항목과 관련 데이터를 추출·정리해 기존 Excel 템플릿에 자동 입력되도록 구현
  • 비개발 직군의 사용을 고려해 입력 포맷, 결과 확인 방식, 반복 실행 흐름을 현업 업무 방식에 맞게 구성

성과

  • 수백 페이지 규모의 GRI/ESG 공시 PDF를 사람이 직접 확인하고 Excel에 입력하던 반복 업무 부담을 완화
  • 개발자용 Python 스크립트 자동화에서 비개발 직군이 사용할 수 있는 OCR 기반 업무 도구로 자동화 방향을 전환
  • 자동화 과정과 한계, 적용 가능성을 사내 기술 세션으로 공유하며 조직 내 AI/OCR 활용 논의를 촉진

2. AI Native 개발·검증 워크플로우 설계

역할: AI 개발 워크플로우 설계 및 도구화

프로젝트 개요

Claude Code, Codex, opencode 등 AI 개발 도구를 단순 코드 생성 보조 도구로 사용하는 데 그치지 않고, 작업 목적과 도구 환경 변화에 따라 개발·검증·문서화 흐름을 재구성해 왔습니다.

최근에는 opencode TUI 기반으로 에이전트형 개발 흐름을 실험했고, 이후 Claude Code와 Codex를 상황에 따라 활용하며 요구사항 정리, 구현, 브라우저 검증, 리뷰, 문서 최신화까지 이어지는 워크플로우를 정리했습니다. 특정 도구 하나에 의존하기보다, 각 도구가 제공하는 기능과 제약을 빠르게 파악하고 현재 작업에 가장 적합한 방식으로 적용하는 것을 목표로 했습니다.

AI Native 적용 접근

  • 특정 AI 개발 도구에 고정되지 않고, Claude Code, Codex, opencode 등 도구별 장점과 제약을 파악해 상황에 맞게 활용
  • AI 개발 환경의 변화에 따라 기존 워크플로우를 재구성하고, 구현·검증·문서화 흐름을 지속적으로 개선
  • AI가 생성한 결과물을 그대로 수용하지 않고, 브라우저 검증·리뷰·문서 최신화 과정을 포함해 결과물 품질을 관리
  • KREAM이 지향하는 Spec Driven Development, Agent PR, Agent Review와 맞닿은 방식으로 AI Native 개발 프로세스를 실험

주요 구현 내용

  • opencode TUI 기반으로 에이전트형 개발 흐름을 실험하고, 작업 목적에 맞는 커스텀 서브에이전트 구성
  • Claude Code와 Codex를 상황에 따라 활용하며 요구사항 정리, 구현, 리팩터링, 검증, 문서화 작업에 적용
  • 인터뷰 → 작업 범위 정리 → 워크트리 생성 → 구현 → 브라우저 검증 → 리뷰 → 문서 최신화 → 머지 흐름을 AGENTS.md로 정리
  • 구현 결과와 검증 산출물을 Notion에 아카이빙하는 자체 CLI 구축
  • 반복 개발 과정에서 누락되기 쉬운 QA 확인, 문서 업데이트, 리뷰 준비를 워크플로우에 포함

성과

  • AI 개발 도구 사용을 단순 코드 생성에서 개발·검증·문서화 프로세스 전반으로 확장
  • 도구 환경이 바뀌어도 작업 흐름을 유지할 수 있도록, 특정 툴에 종속되지 않는 AI 개발 방식 정리
  • 요구사항 정리, 구현, 검증, 문서화 작업을 작은 단위로 나누어 AI 결과물을 검증 가능한 흐름 안에서 관리
  • AI Native 개발 방식에 대한 개인 실험을 실제 사내 개발 업무에 적용 가능한 형태로 정리

3. 대기업 협력사 ESG 증빙 자료 검증 AI Agent

역할: Lead Developer

인턴 1명과 협업하며 기획, 검증 기준 설계, 핵심 로직 구현을 주도

프로젝트 개요

대기업 협력사가 제출한 ESG 자가진단 답변이 첨부 증빙 서류와 일치하는지 검증하는 AI 에이전트를 구현했습니다. 기존에는 감사관이 PDF, docx, xlsx, 이메일, 이미지 등 다양한 형식의 증빙 자료를 직접 열어 답변의 근거 여부를 확인해야 했고, 회사와 질문 수가 늘어날수록 검증 부담이 크게 증가하는 구조였습니다.

이를 해결하기 위해 다중 회사·다중 질문을 배치로 처리할 수 있는 문서 이해 기반 검증 워크플로우를 설계했습니다. 단순히 문서를 요약하는 방식이 아니라, 질문별 답변과 증빙 파일의 관계를 확인하고, 증거 범위와 판단 기준을 명시적으로 제한하는 에이전트 구조로 구현했습니다.

문제 정의 및 에이전트 설계 접근

  • 사람이 반복적으로 수행하던 ESG 증빙 대조·판단 업무를 AI 에이전트 기반 검증 워크플로우로 전환
  • 문서 형식과 질문 구조가 고정되지 않은 상황에서, 답변·첨부파일·증거 범위·판단 기준을 구조화
  • 벡터 DB 기반 RAG보다 Gemini File API의 네이티브 멀티모달 문서 이해가 적합하다고 판단해 아키텍처 선택
  • 프로토타입 수준에서 끝내지 않고, 다수 협력사와 다수 질문을 반복 처리할 수 있는 운영 도구로 발전

주요 구현 내용

  • XML 기반 계층적 프롬프트 구조를 설계해 증거 범위 제한, 파일 매핑 검증, 서면실사/자가진단 분리 등 감사 도메인 규칙을 명시화
  • PDF, docx, xlsx, 이메일, 이미지 등 다양한 증빙 파일을 처리하는 멀티모달 문서 파이프라인 구축
  • Gemini File API 기반 문서 이해 에이전트를 구현해, 벡터 DB 없이 원본 문서 기반의 답변-증빙 검증 수행
  • VerificationOrchestratorBatchEngine을 구현해 다중 회사·다중 질문 배치 처리, 지수 백오프 재시도, 파일 캐싱 흐름 구성
  • 실운영 중 발견한 파일 I/O 병목과 반복 업로드 비용을 개선하며 처리 안정성 향상

성과

  • 기존에 감사관이 직접 수행하던 증빙 대조·검증 부담을 줄이고, 반복 검증 업무의 처리 효율을 개선
  • 초기에는 실험적 기능에 가까웠으나, 배포 후 클라이언트 만족도가 높은 핵심 기능으로 자리 잡음
  • 문서 형식과 질문 구조가 다양한 상황에서도 반복 실행 가능한 AI 검증 워크플로우를 구축
  • 단순 PoC가 아닌 실제 업무에 사용되는 프로덕션 AI 에이전트로 발전

4. 멀티테넌트 미디어 모니터링 SaaS 및 리포트 자동화

역할: 1인 개발

Product Owner & Full-stack Developer로서 기획, 화면 설계, 백엔드, 프론트엔드, 배포, 운영을 단독 수행

기술 스택: Python, FastAPI, SQLModel, PostgreSQL RLS, Scrapy, Scrapyd, OpenAI GPT-4o, LangChain, sentence-transformers, React, TypeScript, Ant Design, React Query, Zustand, Vercel AI SDK, AWS EKS, Amplify, RDS, S3

프로젝트 개요

고객사별 키워드, 필터, 태그 체계를 기반으로 뉴스를 수집·분류·큐레이션하고, 최종 리포트까지 생성하는 멀티테넌트 미디어 모니터링 SaaS를 단독으로 설계·구현했습니다.

기존에는 기사 수집, 분류, 요약, 이슈 큐레이션, 리포트 작성 과정이 운영자의 수작업에 크게 의존하고 있었습니다. 이를 해결하기 위해 기사 수집 파이프라인, AI 기반 분류·요약, 유사 기사 클러스터링, 운영 대시보드, HTML/PDF/HWPX 리포트 렌더링까지 연결된 end-to-end 자동화 흐름을 구축했습니다.

문제 정의 및 제품화 접근

  • 고객사별로 다른 키워드, 태그, 리포트 요구사항을 수용할 수 있도록 멀티테넌트 도메인 구조 설계
  • 실제 업무에서 사용할 수 있도록 기사 관리, 클리핑, 이슈 큐레이션, 리포트 생성 UI를 업무 흐름에 맞게 구성
  • 데이터 파이프라인·AI 분류·운영 UI·리포트 렌더링·인프라까지 포함한 프로덕션 도구로 구현

주요 구현 내용

  • PostgreSQL Row-Level Security, RBAC, JWT 인증을 활용해 고객사별 데이터 격리와 권한 체계 설계
  • Scrapy + Scrapyd 기반 다중 소스 병렬 수집 파이프라인 구축 및 정기 크롤링 운영
  • sentence-transformers 임베딩과 클러스터링을 활용해 선행·후속·유사 보도 맥락 식별
  • OpenAI 기반 기사 요약, 카테고리 분류, 회사 태그 추출 자동화 구현
  • 기사 → 클리핑 → 토픽 → 이슈로 이어지는 계층형 도메인 모델 설계
  • HTML/PDF/HWPX 리포트 렌더링 기능 구현으로 운영자가 큐레이션 결과를 바로 리포트화할 수 있는 흐름 구성
  • React Query, Zustand, Ant Design 기반 운영 대시보드 구현
  • AWS EKS, Amplify, RDS, S3 기반 배포 및 운영 인프라 구성

성과

  • 기획·FE·BE 인력 부족으로 지연되던 미디어 모니터링 제품을 1인 풀스택으로 구현
  • 수집 → 분석 → 큐레이션 → 리포트 생성 → 배포로 이어지는 전체 운영 파이프라인 자동화
  • 파일 중심 리포트 작업의 의존도를 줄이고, 웹 기반 리포트 생성 흐름으로 운영 편의성 개선
  • 정기 크롤링, AI 분석, 리포트 렌더링, 운영 인프라까지 단독으로 책임지며 프로덕션 수준의 서비스 운영 경험 확보