clip2 (VLM)(CLIP) COOP : 프롬프트 러닝의 기반 0. 생각 정리 -. 프롬프트 러닝(학습 데이터 없이, 말로만 학습 하는 기법)의 베이스가 되는 논문 중 하나 -. CoCoOp(CoOp을 확장한 논문) 전에 잠시 정리1. 논문 요약 1) 일반적인 CLIP 평가 시 - A photo of apple, A picture of apple 등 정형화 된 Text 문장을 넣어 평가(embedding 되어 77 길이로 변환되어 사용됨) 2) CoOp의 경우 -. V1, V2, V3 ......, [apple] 과 같이 "A photo of" 가 아닌 학습가능한 vector를 넣어 text encoder를 통과 시켜, 이미지 feature와 임베딩 시킴. 2. 장단점 비교 -. 생각에 미학습된 이미지에 대한 정확도가 떨어질 수 밖에 없음(Overfitti.. 2025. 9. 1. (CLIP)(VLM) CLIP 실사용 - CLIP 모델 불러오기 메타의 CLIP TEST를 위한 코드단순 로드 및 이미지 INPUT(이미지 1개)from PIL import Imageimport requestsimport torchfrom transformers import CLIPProcessor, CLIPModel, AutoModel, AutoProcessorfrom IPython.display import displayimport numpy as npmodel = CLIPModel.from_pretrained("openai/clip-vit-base-patch32")processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch32")## TEST 이미지 불러오기image =Image.open(r'TES.. 2025. 8. 20. 이전 1 다음