meta ai
-
본 논문은 4월 5일 Meta AI에서 발표되었습니다. 이름 그대로 어떤 것이든 segment를 해냅니다.(zero-shot) paper link는 각각 arxiv와 segment anything 블로그에 1개씩 있는데 내용은 동일한 것 같습니다. 온라인에서 demo를 사용하실 분은 여기를 참고하시고 PPT로 따로 만든 자료는 여기를 참고 바랍니다. 논문 들어가기에 앞서 prompt(프롬프트)라는 용어를 알아야 합니다. prompt : 사용자의 입력을 받는 것 정도로 해석하면 될 것 같습니다. 우리가 명령 프롬프트 창에서 직접 명령어를 주는 것처럼 말입니다. Abstract 약 1100만 여개의 이미지에서 약 10억 개 이상의 마스크를 사용했습니다. 해당 이미지와 마스크는 (여기)에 공개되어 있습니다. ..
[논문 리뷰] Segment Anything본 논문은 4월 5일 Meta AI에서 발표되었습니다. 이름 그대로 어떤 것이든 segment를 해냅니다.(zero-shot) paper link는 각각 arxiv와 segment anything 블로그에 1개씩 있는데 내용은 동일한 것 같습니다. 온라인에서 demo를 사용하실 분은 여기를 참고하시고 PPT로 따로 만든 자료는 여기를 참고 바랍니다. 논문 들어가기에 앞서 prompt(프롬프트)라는 용어를 알아야 합니다. prompt : 사용자의 입력을 받는 것 정도로 해석하면 될 것 같습니다. 우리가 명령 프롬프트 창에서 직접 명령어를 주는 것처럼 말입니다. Abstract 약 1100만 여개의 이미지에서 약 10억 개 이상의 마스크를 사용했습니다. 해당 이미지와 마스크는 (여기)에 공개되어 있습니다. ..
2023.05.25 -
최근 Meta AI에서 Segmentation 분야에 쓸 만한 재미있는 모델을 내놓았습니다. 거의 반자동 이상으로 segmentation하겠다고 해서 논문 제목도 Segment Anything이고 model은 보통 SAM(Segment Anything Model)으로 언급합니다. 이 모델에 학습된 데이터셋이 1100만 여개의 이미지와 11억 여개의 마스크라고 합니다. 모델은 3가지로 vit-h, vit-l, vit-b가 있으며 default로는 vit-h를 언급하고 있습니다. segment 방식은 간단하게는 prompt 방식 혹은 automatic한 방법 2가지를 안내하고 있습니다. automatic 방식의 code는 여기, prompt 방식의 code는 여기에 있습니다. 아래는 간단한 shorts입니다..
Segment Anything 사용법(demo)최근 Meta AI에서 Segmentation 분야에 쓸 만한 재미있는 모델을 내놓았습니다. 거의 반자동 이상으로 segmentation하겠다고 해서 논문 제목도 Segment Anything이고 model은 보통 SAM(Segment Anything Model)으로 언급합니다. 이 모델에 학습된 데이터셋이 1100만 여개의 이미지와 11억 여개의 마스크라고 합니다. 모델은 3가지로 vit-h, vit-l, vit-b가 있으며 default로는 vit-h를 언급하고 있습니다. segment 방식은 간단하게는 prompt 방식 혹은 automatic한 방법 2가지를 안내하고 있습니다. automatic 방식의 code는 여기, prompt 방식의 code는 여기에 있습니다. 아래는 간단한 shorts입니다..
2023.05.02