본문 바로가기
반응형

cuda2

[Python] HuggingFace로 오픈소스 AI모델 구동해보기 [04] [Python] GPU로 AI 모델을 구동하기 위한 PyTorch + CUDA + cuDNN 설정 방법 [03][Python] LangChain으로 Llama3 언어 모델 구동해보기 [02][Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로dev-drive.tistory.com 허깅페이스란? 현재 가장 유명한 인공지능 플랫폼으로 자연어 처리를 위한 Transformer 라이브러리와데이터 처리를 위한 Datasets 라이브러리, 데이터를 토큰화 시키는 Tokenizers 라이브러리 등 AI모델 처리를 위한 다양한 편의 기능을 제공하고 Hub를 통해 모델을 호스팅하거나 공유할 수 있는 플.. 2024. 9. 10.
[Python] GPU로 AI 모델을 구동하기 위한 PyTorch + CUDA + cuDNN 설정 방법 [03] [Python] LangChain으로 Llama3 언어 모델 구동해보기 [02][Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로 공개했습니다.OpenAI의 GPT로 테스트를 진행하려면dev-drive.tistory.com AI모델 테스트는 CPU를 사용해서 진행해도 되지만 실제 서비스를 하기 위해서는병렬처리에 특화된 GPU를 사용해서 모델을 구동시켜야 합니다. 아시겠지만 최근 엔비디아가 핫한 이유도 AI모델 구동에 GPU가 필수적이기 때문입니다.   https://www.nvidia.com/ko-kr/geforce/graphics-cards/40-series/ 엔비디아 GPU의 사양 리.. 2024. 7. 29.
반응형