Skip to content

Accelerating the development of large multimodal models (LMMs) with one-click evaluation module - lmms-eval.

License

Notifications You must be signed in to change notification settings

UpstageAI/lmms-eval

 
 

Repository files navigation

DocVision 모델 평가용 lmms-eval 패키지

설명

lmms-eval 프로그램을 포크하여, DocVision 모델을 추가한 레포지토리입니다. 모델 평가를 수행하기 위해서는 다음 설명에 따라 설정을 진행합니다.

단계 1 - 평가용 Conda 환경 설정

아래와 같이 lmms-eval 사용을 위한 Conda 환경을 생성합니다. 이 때, MoRA adapter 사용을 위해 mora 패키지를 추가로 설치합니다.

(base) hancheol@upstage-node-001:~/projects $

# lmms-eval 환경 생성
conda create -n lmms-eval python=3.11
conda activate lmms-eval

# DocVision용 lmms-eval 설치
git clone [email protected]:UpstageAI/lmms-eval.git
cd lmms-eval
pip install -e .

# 추가 필수 라이프러리 설치
pip install -r requirements.txt

단계 2 - 모델 준비 및 평가 실행

학습된 DocVision 모델을 준비합니다. 그리고 아래와 같이 scripts/run_eval.sh 파일을 실행하여 평가를 수행합니다. --model_path--tasks 는 필수 인자입니다. lmms-eval이 지원하는 모든 태스크는 current_tasks.md에서 확인 가능합니다.

(lmms-eval) hancheol@upstage-node-001:~/projects/lmms-eval $

scripts/run_eval.sh \
    --model_path /app/docfm/checkpoints/training/DocVision/SFT-SyntheticData/20250208_solar-exp-2_with-figureqa_900kX3_multipage-base-model/steps_5240 \
    --tasks docvqa \
    --gpu_ids 0,1,2,3 \
    --port 35001

About

Accelerating the development of large multimodal models (LMMs) with one-click evaluation module - lmms-eval.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 92.4%
  • Jupyter Notebook 7.5%
  • Shell 0.1%