Instruct.KR Agents 미트업에 가다

태그 AIInstruct.KR 분류 일반

Instruct.KR Agents 미트업에 다녀온 후기를 공유합니다. 주요했던 세션과 느낀 점들을 정리했습니다.

Instruct.KR Agents 미트업 로고

chevron_right

목차


서론

Instruct.KR 2025 12월 Meetup - Agents에 방문했다. Instruct.KR은 “대한민국의 AI 연구자, 엔지니어, 프로덕트 팀을 위한 AI 리서쳐 및 실무자 중심의 커뮤니티”로, 12월 20일에 주최된 이번 미트업은 에이전트를 주제로 해 관련한 언어 모델, RAG나 시장 흐름 등을 주제로 여러 발표가 진행되었다. 이 글에서는 미트업의 주된 내용을 요약하고 느낀 점을 공유하고자 한다. 일부 발표는 향후에 정리하고 깊이 다뤄보고자 한다.

김동규 / NomaDamas - 클로드 코드 빌더 해커톤 1등한 썰 풀어봅니다

요약

  • AutoRAG 등을 제작한 Jeffrey Kim 님이 발표를 진행
  • 제한 시간은 3시간, 떠올린 주제는 “박석삼[*1] 죽이기”
  • 기존에는 Github Copilot을 주로 사용했으나, 처음으로 Claude Code 사용
  • 빠른 pivot: iOS 앱에서 빠르게 gradio 기반으로 전환하는 등 유연한 대처
  • 일단 돌아가야 한다는 것에 주목하여, 해커톤의 상황에서 micro-managing 언급
  • readme 직접 작성 → soft skill 중요성 강조
  • 우승해 받은 크레딧으로 할 일: autorag-research, 한국어 multi-page vqa 데이터셋 구축 등

후기

  • 나는 아직 해커톤에 참가해본 적은 없으나, 참가하고 싶다는 마음은 있었다. 이번 발표에서 얻은 내용은 AI 도구 활용 외에도 모두 활용될 수 있는 내용이므로 많은 도움이 될 것 같다.
  • 특히 제한된 시간 내에 빠르게 pivot하는 것과 soft skill의 중요성은 해커톤뿐만 아니라 실제 업무에서도 매우 중요한 요소라고 생각한다.

변형호 / NotoLab - Agent 시대의 파인 튜닝: LORA vs FFT

요약

  • 에이전트 시대에 파인튜닝보다 초점이 맞춰진 것은: context engineering, MCP/Skills, memory 등
  • 그래도 파인튜닝이 필요한 순간: general하지 않은 툴, sLLM, 도메인 특화, 비용 절감
  • 하지만 base model의 지속적 발전, 데이터 부족, GPU 비용 등이 단점
  • → LoRA 학습, real world와 유사한 synthetic data으로 극복
  • LoRA
    • LoRA Without Regret(2025. 9): LoRA도 FFT와 같은 성능을 낼 수 있다! (rank 조절)
    • Physics of Language Models(2024, Meta): 신경망은 장기간 훈련 시 매개변수 당 최대 2비트 저장, 경험적으로 토큰 하나 당 약 1비트의 새로운 정보가 데이터에 포함 → LoRA의 파라미터 수와 토큰 수의 관계
  • Data
    • Agent의 응답 패턴: 툴 콜, 직답, 추가 질문, 거절
    • 데이터 구성: Salesforce/APIGen-MT-5k, nvidia/When2Call, synthetic data → 고품질, 다양성
      • Salesforce/APIGen-MT-5k: 멀티턴, 실제 시나리오 기반
      • nvidia/When2Call: 겸손한 에이전트를 위해서, 직답/추가 질문/거절 학습
  • 향후 계획: native로 툴 콜링을 지원하지 않는 base model 학습, 데이터 분포 조절, RL 적용 등

후기

  • 나는 모델 pre-training과 fine-tuning에 여전히 관심이 많은 편이지만, 최근 그 이유에 대해 의문이 든 것은 사실이다. 발표에서 여러 최신 연구를 살피고 그 이유에 대해 생각할 수 있었으며, 특히 데이터의 구성에서 직답, 추가 질문, 거절 등의 다양한 응답 패턴을 학습시키는 것이 인상 깊었다.

정이태 / XCENA - GraphRAG, Semantic layer and Ontology

후기

  • 아직 GraphRAG 관련 분야에 대해 문외한이기에 여기에서는 자세한 내용은 생략한다. 하지만 그 의미와 활용 가능성에 대해 생각해볼 수 있는 기회가 되었다.

김민준 / KAIST - 한국어 오픈소스 언어모델 KORMo 프로젝트 여행기

요약

  • KORMo: Korean Open Reasoning Model
    • Fully-open: 데이터, 체크포인트, tech report 등 ← OLMo 정신
    • 약 3T 토큰 학습, H200 x 128 12주 사용, 10.8B
  • Why?
    • 이미 잘 하는 모델 많아지고 있지만…
    • 다양한 관점 있으나, 기술적 종속/토큰 효율성/한국 문화 맥락
    • KAIST 임경태 교수 - 비운의 트라이앵글: 인재와 연구의 문제 → 우리는 왜 DeepSeek 같은 거 없냐??
    • Trillon Labs 신재민 대표: 진정한 fully-ownership
  • KORMo의 의의: fully-open
    • 영어 중심 LLM의 경우 open-source 위주로 비약적 성장 ∵ 데이터 공유
    • 한국어는…
    • → 직접 정제, 생성, 공개하자!
  • 실험 공유!
    • synthetic 데이터의 위험성
  • tokenizer의 이해
    • 한/영, crawling/synthetic 비율 고려해 tokenizer 학습
  • 누구나 쉽게 한국어 from-scratch LLM을 공부할 수 있기를 바람

후기

  • 개인적으로 가장 기대했던 발표였다. 한국어 토크나이저나 데이터셋 구축에 대해서는 나도 활동하던 터이며, 발표되었을 때 HuggingFace에서도 미리 살펴봤던 모델이기 때문이다.
  • 발표에서 특히 공감되었던 것은 한국어 특화 LLM이 필요한지에 대한 질문이었다. open-source LLM의 한국어 수준은 개인적으로 생각하기에는 GPT-4 수준에 정체되어 있다고 보고 있기도 하지만, 이에 대한 다양한 관점을 들을 수 있어 좋았다.
  • 앞으로 학습을 진행할 때 참고할 계획이다.

김나연, 어태경 / 카카오 - Kanana-2 언어모델 훑어보기

MoE와 관련한 구체적인 부분, 특히 Auxiliary Loss Free에 대한 설명은 내 이해가 부족하여 생략한다.

요약

  • Pre-training
    • Kanana-2-30B-A3B
    • Kanana-1.5-15.7B-A3B에 비하여…
    • GQA → MLA, experts 64 → 128, dense upcycled → from-scratch, auxiliary-loss-free
    • 더 좋은 데이터
    • 향상된 학습 기법: Muon optim, dualpipev 등
  • Mid-Training
    • 왜 Pre와 Post 사이에 Mid-training을 하나?: 한국어 forgetting 현상
  • Post-training
    • 도메인별 학습, weight merging

후기

  • KORMo와 더불어 기대했던 발표 중 하나였다.
  • 개인적으로는 기술적 내용 위주여서 아쉬운 점은 있었으나, 지속적으로 base 모델도 공개하며 여러 연구를 진행하고 있는 것만 해도 감사하다는 마음을 전하고 싶다.

허진호 / Han River - Agent와 Consumer AI의 Market 흐름

요약

  1. Consumer behavior shifts in progress
  • 검색 → 요약, 중간 시장(google ads) 등의 축소
  • AI Super App War - ByteDance, Alibaba(qwen) 등의 사례
  • 유저 의도를 캡쳐하려는 배틀 → b2c의 headless화, 마진의 축소
  1. Agent as “new Consumer OS”
  • agent의 진화 → 식당 예약부터 여행 계획 등 처리
  • long-running, self-learning agent의 등장
  • A2A economy: 사람의 관심을 끌기 위한 Attention economy → 에이전트가 의도를 이해하고 제공하는 Intent economy
  • → headless화, 브랜드 효과와 플랫폼 락인의 최소화

후기

  • 예상 외로 도움이 되었던 발표. 흐트러져 있던 시장의 흐름을 하나로 정리해볼 수 있었고, 앞으로의 방향성에 대해서도 생각해볼 수 있었다.

전체 후기

위 내용은 아직 미완성이며, 추후 다른 발표에 대해서도 다룰 예정이다.

이러한 미트업은 사실 처음 참석해본 것이기에 많은 기대와 긴장을 했다. 모두 정말 유익한 내용이었으며 앞으로도 자주 참석하고 싶다는 생각이 들었다. 또한 개인적으로 진행하고 있는 한국어 언어 모델에 대한 탐구와, 최근 팀원과 같이 진행하고 있는 글결 프로젝트를 열심히 진행하여 한국어 AI 생태계에 기여, 발표하고자 하는 목표를 갖게 되었다. 아쉬웠던 점은 많은 사람들이 있었음에도 말도 한번 걸지 못하고 돌아왔다는 것. 아무튼, 앞으로도 한국어 LLM 생태계를 향한 발전을 기원하며 관심과 참여를 지속할 것이다.


각주

  1. [*1] 검찰 수사관을 사칭하는, 보이스피싱 관련 위조 서류에서 자주 등장하는 가짜 신분

chevron_left
이전 글
나와 NYPC, 5년
article
현재 글
Instruct.KR Agents 미트업에 가다
인용하기
BibTeX
@misc{devngho202520251227instructkrmeetupagents,
  author       = {Yu, Dongho},
  title        = {Instruct.KR Agents 미트업에 가다},
  howpublished = {\url{https://ngho.dev/posts/20251227-instructkr-meetup-agents}},
  year         = {2025},
  month        = {dec},
  note         = {Accessed: 2025-12-27}
}

APA 유동호. (2025년 12월 27일). Instruct.KR Agents 미트업에 가다. devngho 블로그. https://ngho.dev/posts/20251227-instructkr-meetup-agents

Chicago 유동호. “Instruct.KR Agents 미트업에 가다.” devngho 블로그 (blog). 2025년 12월 27일. https://ngho.dev/posts/20251227-instructkr-meetup-agents.

MLA 유동호. “Instruct.KR Agents 미트업에 가다.” devngho 블로그, 2025년 12월 27일, https://ngho.dev/posts/20251227-instructkr-meetup-agents.