AI
-
CVPR 2022에 발표된 논문입니다. 저자는 Jiaotong University 쪽 4명과 Lanzhou University of Technology 1명으로 구성되어 있습니다. 이 논문의 주된 이야기는 CAM(Class Activation Mapping)을 이용하여 WSSS(Weakly Supervised Semantic Segmentation)을 medical image에서 어떻게 다룰 것인지(pseudo mask labeling을 생성해내는)에 대한 설명입니다. 약 10페이지 짜리인데도 이걸 읽는 것만으로는 정말 이해하기가 힘드네요.. Abstract 최근 CAM(Class Activation Mapping)을 기반으로 WSSS(Weakly Supervised Semantic Segmentatio..
[논문 리뷰] C-CAM: Causal CAM for Weakly Supervised Semantic Segmentation on Medical ImageCVPR 2022에 발표된 논문입니다. 저자는 Jiaotong University 쪽 4명과 Lanzhou University of Technology 1명으로 구성되어 있습니다. 이 논문의 주된 이야기는 CAM(Class Activation Mapping)을 이용하여 WSSS(Weakly Supervised Semantic Segmentation)을 medical image에서 어떻게 다룰 것인지(pseudo mask labeling을 생성해내는)에 대한 설명입니다. 약 10페이지 짜리인데도 이걸 읽는 것만으로는 정말 이해하기가 힘드네요.. Abstract 최근 CAM(Class Activation Mapping)을 기반으로 WSSS(Weakly Supervised Semantic Segmentatio..
2023.02.03 -
논문 제목은 U-Net: Convolutional Networks for Biomedical Image Segmentation 입니다. 이 논문은 Medical 분야에서 Baseline으로 통하는 기저가 되는 논문으로 2015년 CVPR에 발표되었고 2022.11.30 기준 인용 횟수가 무려 5만회가 넘습니다. Segmentation에서 쓰이며 이후 wide unet, unet++, unet3+으로 더욱 개선을 시도한 논문들이 발표되었습니다. PPT 자료입니다. 슬라이드 메모에 설명을 적어놓았는데 slideshare에 pdf로 올라가면서 메모 노출이 안되는게 에러네요. U-Net: Convolutional Networks for Biomedical Image Segmentation from fake ca..
[논문 리뷰] U-Net: Convolutional Networks for Biomedical Image Segmentation논문 제목은 U-Net: Convolutional Networks for Biomedical Image Segmentation 입니다. 이 논문은 Medical 분야에서 Baseline으로 통하는 기저가 되는 논문으로 2015년 CVPR에 발표되었고 2022.11.30 기준 인용 횟수가 무려 5만회가 넘습니다. Segmentation에서 쓰이며 이후 wide unet, unet++, unet3+으로 더욱 개선을 시도한 논문들이 발표되었습니다. PPT 자료입니다. 슬라이드 메모에 설명을 적어놓았는데 slideshare에 pdf로 올라가면서 메모 노출이 안되는게 에러네요. U-Net: Convolutional Networks for Biomedical Image Segmentation from fake ca..
2022.11.30 -
이 글을 보기 전에 https://fakecan.tistory.com/58 에서 confusion matrix(TP, FP, TN, FN)을 보시기 바랍니다. 모델을 평가하려면 지표가 필요합니다. 이런 지표 중에서 대표적이라 할 수 있는 Precision(정밀도)과 Recall(재현율)을 이해해보겠습니다. 설명하기 이전에, 사용 모델을 '나'라고 치환해서 설명하겠습니다. e.g. 내가 맞다고 분류한 것 중에서 실제로 맞는 것의 비율 → 모델이 맞다고 분류한 것 중에서 실제로 맞는 것의 비율 그리고 '판단'이라는 말을 '예측'이라는 말로 생각하셔도 무방합니다. Precision(정밀도) 내가 맞다고 판단한 것 중에서 실제로 맞는 것의 비율 TP : 내가 맞다고 판단한 것이 실제로 맞는 것(정답을 맞힌 상황..
Precision(정밀도)과 Recall(재현율)이 글을 보기 전에 https://fakecan.tistory.com/58 에서 confusion matrix(TP, FP, TN, FN)을 보시기 바랍니다. 모델을 평가하려면 지표가 필요합니다. 이런 지표 중에서 대표적이라 할 수 있는 Precision(정밀도)과 Recall(재현율)을 이해해보겠습니다. 설명하기 이전에, 사용 모델을 '나'라고 치환해서 설명하겠습니다. e.g. 내가 맞다고 분류한 것 중에서 실제로 맞는 것의 비율 → 모델이 맞다고 분류한 것 중에서 실제로 맞는 것의 비율 그리고 '판단'이라는 말을 '예측'이라는 말로 생각하셔도 무방합니다. Precision(정밀도) 내가 맞다고 판단한 것 중에서 실제로 맞는 것의 비율 TP : 내가 맞다고 판단한 것이 실제로 맞는 것(정답을 맞힌 상황..
2022.08.12 -
이 글을 보기 전에 https://fakecan.tistory.com/58 에서 confusion matrix(TP, FP, TN, FN)을 먼저 이해하고 봐주세요. 의료에서는 진단을 환자(양성)를 찾아내는데 더 집중하느냐, 정상(음성)을 찾아내는데 더 집중하느냐에 따라 기준 지표가 달라질 수 있습니다. 이런 진단을 하는 기준에 대해 sensitivity와 specificity를 자주 이야기합니다. 이 두 가지 용어를 이해해보겠습니다. 양성 환자(질병을 앓는 사람, 여기서는 Positive로 생각한다) 음성 정상(멀쩡한 사람, 여기서는 Negative로 생각한다) Sensitivity(민감도) : 환자를 환자라고 진단하는 비율(양성을 양성이라고 진단하는 비율) Specificity(특이도) : 정상을 정..
Sensitivity(민감도)와 Specificity(특이도)이 글을 보기 전에 https://fakecan.tistory.com/58 에서 confusion matrix(TP, FP, TN, FN)을 먼저 이해하고 봐주세요. 의료에서는 진단을 환자(양성)를 찾아내는데 더 집중하느냐, 정상(음성)을 찾아내는데 더 집중하느냐에 따라 기준 지표가 달라질 수 있습니다. 이런 진단을 하는 기준에 대해 sensitivity와 specificity를 자주 이야기합니다. 이 두 가지 용어를 이해해보겠습니다. 양성 환자(질병을 앓는 사람, 여기서는 Positive로 생각한다) 음성 정상(멀쩡한 사람, 여기서는 Negative로 생각한다) Sensitivity(민감도) : 환자를 환자라고 진단하는 비율(양성을 양성이라고 진단하는 비율) Specificity(특이도) : 정상을 정..
2022.08.12 -
딥러닝 모델에서 평가 지표는 어떤 모델의 성능을 측정하는 단위가 되기 때문에 매우 중요합니다. 모델에 대해서 평가를 할 수 없다면 모델들끼리의 좋고 나쁜지 알 수 없기 때문입니다. 성능을 위해서 사용되는 지표의 기본 개념들을 알아보겠습니다. Confusion Matrix(TP, FP, TN, FN) 저 위에 설명이 직관적으로 와닿지 않을 수 있습니다. 조금 풀어 써보겠습니다. 먼저 TP, FP, TN, FN의 단어 뒷부분을 담당하는 Positive(or Negative)는 나의 생각을 나타냅니다. 내가 문제를 정답으로 생각하냐 오답으로 생각하냐를 나타냅니다. 그렇다면 단어 앞부분의 True(or False)는 내 생각이 맞는지 틀린지 정해주는 기준이 됩니다. 그리고 단어를 해석할 때, 단어 뒷부분의 P(..
Confusion Matrix(TP, FP, TN, FN)딥러닝 모델에서 평가 지표는 어떤 모델의 성능을 측정하는 단위가 되기 때문에 매우 중요합니다. 모델에 대해서 평가를 할 수 없다면 모델들끼리의 좋고 나쁜지 알 수 없기 때문입니다. 성능을 위해서 사용되는 지표의 기본 개념들을 알아보겠습니다. Confusion Matrix(TP, FP, TN, FN) 저 위에 설명이 직관적으로 와닿지 않을 수 있습니다. 조금 풀어 써보겠습니다. 먼저 TP, FP, TN, FN의 단어 뒷부분을 담당하는 Positive(or Negative)는 나의 생각을 나타냅니다. 내가 문제를 정답으로 생각하냐 오답으로 생각하냐를 나타냅니다. 그렇다면 단어 앞부분의 True(or False)는 내 생각이 맞는지 틀린지 정해주는 기준이 됩니다. 그리고 단어를 해석할 때, 단어 뒷부분의 P(..
2022.08.11 -
Seq2Seq 이론 및 구현을 정리하고 있습니다. github code : https://github.com/fakecan/Seq2Seq/ GitHub - fakecan/Seq2Seq Contribute to fakecan/Seq2Seq development by creating an account on GitHub. github.com 코드는 깃허브에 구현되어 있고, 자료는 아래 Reference를 참고하여 진행하였습니다. Reference Seq2Seq https://jiho-ml.com/weekly-nlp-22/ https://amber-chaeeunk.tistory.com/92 https://velog.io/@sujeongim/NLPSeq2Seq-with-Attention Seq2Seq code ..
Seq2SeqSeq2Seq 이론 및 구현을 정리하고 있습니다. github code : https://github.com/fakecan/Seq2Seq/ GitHub - fakecan/Seq2Seq Contribute to fakecan/Seq2Seq development by creating an account on GitHub. github.com 코드는 깃허브에 구현되어 있고, 자료는 아래 Reference를 참고하여 진행하였습니다. Reference Seq2Seq https://jiho-ml.com/weekly-nlp-22/ https://amber-chaeeunk.tistory.com/92 https://velog.io/@sujeongim/NLPSeq2Seq-with-Attention Seq2Seq code ..
2022.08.10