Datasets:
instruction stringlengths 21 142 | tools listlengths 1 1 |
|---|---|
판교역(127.111221,37.395441)에서 잠실야구장(127.071707,37.514085)까지 자차로 몇 분 걸릴까? | [
"Directions_naver"
] |
서울역(126.97070,37.55360)에서 인천공항 제1터미널(126.45123,37.46349)까지 유료도로는 피하고, 광화문(126.97688,37.57594)와 여의도(126.92490,37.52190)를 경유해 이동하면 몇 분 걸리는지 알려줘. | [
"Directions_naver"
] |
빗썸에서 비트코인 원화 현재가 알려줘. | [
"CryptoPrice_bithumb"
] |
LS증권에서 KOSDAQ 지수의 등락률(%)을 소수점 2자리까지만 알려줘. | [
"MarketIndex_ls"
] |
네이버에서 ‘전기차 충전 요금 인상’ 검색해서 첫 번째 결과 제목만 알려줘. | [
"WebSearch_naver"
] |
네이버 블로그에서 '제주 가을 여행 코스 후기'로 검색해서 첫 번째 결과 글 제목만 알려줘. | [
"BlogSearch_naver"
] |
네이버 뉴스에서 '반도체 수출 전망'관련 기사 하나만 골라 제목을 알려줘. | [
"NewsSearch_naver"
] |
알라딘에서 히가시노 게이고 작품들 검색해서, 인기순으로 첫 번째 책 제목 알려줘. | [
"ItemSearch_aladin"
] |
다음 동영상에서 '손흥민 헤드트릭' 검색해서 첫 영상 제목 알려줘. | [
"VideoSearch_daum"
] |
카카오맵으로 강남역(127.02758, 37.4979) 근처에서 '파스타' 검색해서 첫 번째 가게 이름 알려줘. | [
"PlaceSearch_kakao"
] |
홍대입구역(126.9237,37.5563) 기준 500m 안에 있는 카페 찾아서 하나만 상호명 알려줘. | [
"CategorySearch_kakao"
] |
🇰🇷 Ko-AgentBench v1
"한국 에이전트 벤치마크 프로젝트"
English | 한국어
⚠️ 벤치마크 평가를 진행하시려면 GitHub Repository를 방문해주세요.
이 데이터셋은 벤치마크 태스크 정보만 포함하고 있습니다. 실제 평가 코드, API 도구, 평가 메트릭 등은 GitHub에서 확인하실 수 있습니다.
AI 에이전트의 능력이 고도화되면서, 그 성능을 실제 환경과 유사한 조건에서 정밀하게 측정하는 것이 중요해졌습니다. 하지만 대부분의 벤치마크는 영어권 환경을 기준으로 설계되어, 한국의 특수한 사용 맥락을 반영하는 데 한계가 있었습니다. 이러한 문제를 해결하기 위해, 한국 실사용 환경에 특화된 고품질 에이전트 벤치마크를 개발하였습니다.
Ko-AgentBench 핵심 특징 ✨
1. 단계별 태스크 설계
단순 도구 호출부터 장기적 맥락 능력, 강건성 처리 능력까지 에이전트의 능력을 7단계로 입체적으로 분석하였습니다.
2. 18가지 한국형 API 사용 및 실생활 환경에 특화된 고품질 시나리오 구성
네이버, 지도, 카카오, 웹사이트 등 한국 실사용 환경 기반의 API를 기반으로 국내 사용자의 일상과 밀접한 '약속 예약', '블로그 후기 검색'과 같은 현실적인 문제 해결 시나리오를 구현했습니다.
3. 캐시 기반 반복 평가 및 강건성 테스트
'정보 속성 불일치성 변경' 등 기존 벤치마크의 고질적 문제를 해결합니다. 실패 API 응답을 개선함에 따라 벤치마크의 일관성과 신뢰도를 보장합니다.
의도된 오류 상황에서의 오류 인식/대응 능력(전략)까지 평가함으로 현실 환경에서도 안정적으로 작동하는 모델을 선별합니다.
4. 단계별 고유 정밀 지표
도구 선택, 파라미터 구성, 데이터 흐름 등 문제 해결의 불필요/소요를 단계별로 평가합니다. 이를 통해 모델의 강/약점 정량적으로 식별합니다.
데이터 로드
from datasets import load_dataset
# 전체 데이터셋 로드
dataset = load_dataset("huggingface-KREW/Ko-AgentBench")
# 특정 레벨만 로드
l1_dataset = load_dataset("huggingface-KREW/Ko-AgentBench", split="L1")
# 데이터 확인
print(dataset["L1"][0])
# {
# 'instruction': '판교역에서 잠실야구장까지 자차로 몇 분 걸릴까?',
# 'tools': ['Directions_naver']
# }
데이터셋 개요
- 에이전트 벤치마크 설계를 위한 태스크 분류 체계 정의
- 에이전트의 Tool calling 활용하는 과정에서 필요한 능력을 단계적으로 분리하여 평가할 수 있도록 설계
데이터셋 범위
- 평가 대상 : Open-weight sLLM(*supports tool calling), Commercial APIs
- 평가 범위 : 평가 영역 : 단일턴(single-turn) 및 멀티턴(multi-turn) 대화 상황에서 Agent로써 Tool calling 수행 능력
- 적용 API : 18가지 한국형 오픈API
태스크 분류 단계
싱글턴
L1. (단일 도구 호출) Single Tool Call
- 목표: 가장 기본적인 API 호출 능력 검증
- 설명: 주어진 도구를 정확한 파라미터로 실행할 수 있는지 확인
- 특징: API명이 명시된 요청or 자연어 요청을 그대로 수행 → "정확성만" 평가
- 예시: "네이버 책 API로 '급류'를 검색하고 가격 알려 줘."
- 예시: "급류 책 가격 알려줘"
L2. (도구 선택) Tool Selection
- 목표: 여러 후보 도구 중 최적의 API를 선택하는 능력 검증
- 설명: 사용자는 자연어로 요청하고, 모델은 주어진 도구 목록 중 가장 적합한 도구를 선택해야 함
- 특징: 입력된 자연어로 정확한 tool mapping 평가
- 예시: "'올백영어 중2-1 천재(김)' 책 가격 확인해줘."
- 후보 도구:
hotel_booking_api,aladin_books_api- 후보 도구는 상호 연관성이 없어야 함을 조건으로 합니다.
L3 (도구 순차 추론) Sequential Tool Reasoning
- 목표: 다단계 reasoning을 통한 계획 및 실행 능력 검증
- 설명: 한 도구의 결과를 다른 도구 입력으로 연결하여 올바른 pipeline을 구성할 수 있는지 확인
- 특징: 단순 호출이 아니라 "계획성 있는 chain-of-tools" 평가
- 예시: "11번가 아마존에서 구매한 인스탁스11 언제 배송오는지 알려줘"
- 후보 도구:
11st_order_api,관세청_api,cj_delivery_api- 순차적으로 도구를 호출 할 수 있어야 합니다.(11번가에서 배송번호 조회→관세청 통관→택배사)
L4 (도구 병렬 추론) Parallel Tool Reasoning
- 목표: 병렬적으로 정보를 수집하고, 이를 종합하여 결론 도출
- 설명: 서로 독립적인 여러 도구를 동시에 호출하고, 결과를 비교·분석 후 최종 답변 산출
- 특징: Multi-source aggregation 평가 (정보 종합·비교 능력)
- 예시: "'한로로 자몽살구클럽' 책 재고 확인해줘."
- 후보 도구:
kyobo_books_api,aladin_books_api - 예상 답변: 교보문고에 12권, 알라딘에 18권 총 30권 있습니다.
- 이때 후보 도구는 병렬적으로 같은 기능을 담당해야 함.
L5 (오류 처리와 강건성) Error Handling and Robustness
- 목표: 오류 상황에서의 대처 능력 검증
- 설명: 단순히 "실패했다"가 아니라, 다양한 failure mode를 어떻게 처리하는지 평가
- 세부 항목:
- A. 추가 질문 요청
- 정보 부족 시 사용자가 더 명확한 요청을 하도록 유도
- B. Hallucination 방지
- 존재하지 않는 API 호출 금지
- 실패 시 "성공한 것처럼 꾸며내는 답변" 금지
- C. 회피기동(Fallback)
- 특정 API 오류 시, 동일 기능을 가진 대체 API 활용 가능 여부
- 예시: "네이버 영화 API 호출 실패 시 → 'API 호출 실패' 보고 or 카카오 영화 API 대체 호출"
멀티턴
L6 (효율적인 도구 활용) Efficient Tool Utilization
- 목표: 이전 Tool 결과를 효율적으로 재활용하는 능력 검증
- 설명: 모든 상황에서 API를 재호출하는 것은 정확하더라도 비용·지연 측면에서 비효율적임. 반대로 오래된 정보를 무조건 재사용하는 것도 정확성에 문제 발생.
- 특징: "재호출 vs 재사용" 사이에서 합리적 선택을 할 수 있는가 평가
- 예시:
- 사용자: "쿠팡과 네이버 가격 비교해줘." → 결과: 쿠팡 80, 네이버 85
- 사용자: "네이버 가격 얼마였지?"
- 올바른 답변: 85 (과거 정보 활용, 불필요한 재호출 회피)
- 잘못된 답변: 다시 API 호출 or "몰라요"
L7 (장기 컨텍스트 기억) Long-Context Reasoning
- 목표: 멀티턴 대화에서 장기적 맥락을 유지하는 능력 검증
- 설명: 몇 턴 전의 정보를 기억하고, 새로운 질문과 연결하여 올바르게 Tool calling 수행
- 예시:
- 사용자 첫 질문: "제주도 여행 갈 거야."
- 이후: "날씨 어때?" → 제주도 맥락을 활용해 날씨 API 호출
- (추가 턴) "비 오면 우산 살 수 있는 곳도 찾아줘." → 앞선 제주도+날씨 컨텍스트 모두 활용
링크 🔗
Ko-AgentBench에 대한 더 자세한 내용을 확인 하실 수 있습니다.
- 🏆 Live Leaderboard
- 📊 Dataset
- 📝 Github
문의 📧
데이터셋 및 벤치마크에 대한 문의가 있으시다면 연락 주세요!
Hugging Face KREW는 Hugging Face를 통해 인공지능을 깊이 이해하고, 오픈 소스에 기여하기 위해 노력하는 한국 비영리 리서치 조직입니다.
- ✍🏻 Blog: KREW-blog
- 🐦 HuggingFace Community: @huggingface-KREW
- 💼 LinkedIn: Hugging Face KREW
- Downloads last month
- 238