최근 Meta AI에서 Segmentation 분야에 쓸 만한 재미있는 모델을 내놓았습니다.
거의 반자동 이상으로 segmentation하겠다고 해서 논문 제목도 Segment Anything이고 model은 보통 SAM(Segment Anything Model)으로 언급합니다. 이 모델에 학습된 데이터셋이 1100만 여개의 이미지와 11억 여개의 마스크라고 합니다.
모델은 3가지로 vit-h, vit-l, vit-b가 있으며 default로는 vit-h를 언급하고 있습니다.
segment 방식은 간단하게는 prompt 방식 혹은 automatic한 방법 2가지를 안내하고 있습니다.
automatic 방식의 code는 여기, prompt 방식의 code는 여기에 있습니다.