반응형 전체 글44 [AI] 커서 AI에서 Github MCP Server 사용해보기 [02] [AI] 바이브코딩을 위한 커서 AI 환경 세팅해보기 [01]바이브코딩이란? 바이브 코딩(Vibe Coding)은 전통적인 프로그래밍 방식에서 벗어나문맥, 직관, 흐름에 따라 자유롭게 개발하는 스타일을 의미합니다. 대부분 개발하다가 막히거나 궁금한 부분에dev-drive.tistory.com MCP Server를 활용하면 MCP Agent의 기능을 조금 더 극대화시킬 수 있습니다. 이전엔 이런 기능이 필요하면 하나하나 직접 개발해야 했지만MCP가 표준이 되면서 IDE에 다양한 MCP Server를 손쉽게 추가할 수 있게 되었습니다. MCP Server를 추가하면 Agent가 코드 생성에 그치지 않고Github, DB, Notion, Figma 등 다양한 Tool에 접근하게 할 수 있습니다. Smi.. 2025. 6. 15. [AI] 바이브코딩을 위한 커서 AI 사용해보기 [01] 바이브코딩이란? 바이브 코딩(Vibe Coding)은 전통적인 프로그래밍 방식에서 벗어나문맥, 직관, 흐름에 따라 자유롭게 개발하는 스타일을 의미합니다. 대부분 개발하다가 막히거나 궁금한 부분에 대해서만 AI의 도움을 얻을텐데바이브코딩은 Agent가 프로젝트에 직접 개입하게 하여 코드 생성까지 AI에게 맡기는 방법입니다. 아직은 깊은 개발 지식 없이 바이브코딩만으로는 완전한 솔루션을 만들기는 어렵다고 생각되지만프로토타입을 만들거나 창의적인 아이디어 실현에는 도움을 줄 수 있는 개발 방법이라고 생각합니다. 커서 AI란? Cursor AI는 VS Code를 기반으로 포크하여 만든 AI 코드 에디터입니다. 특히, LLM과 IDE의 통합으로 AI Agent 기반 개발에 특화되어 있습니다. 커서를 실행.. 2025. 6. 15. [Python] HuggingFace로 Llama모델 학습(파인튜닝) 시키기 [05] [Python] HuggingFace로 오픈소스 AI모델 구동해보기 [04][Python] GPU로 AI 모델을 구동하기 위한 PyTorch + CUDA + cuDNN 설정 방법 [03][Python] LangChain으로 Llama3 언어 모델 구동해보기 [02][Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기dev-drive.tistory.com 이번엔 허깅페이스에 올라와 있는 오픈소스 모델을 학습시키는 과정을 진행해보겠습니다. 우선 허깅페이스 허브가 설치되어 있지 않다면 설치를 진행해주세요.pip install huggingface_hub 그 다음 로그인을 진행합니다.huggingface-cli login 허깅페이스 계정이 없다면 만들어주시고.. 2025. 6. 7. [C++ / MFC] 트레이 아이콘 만들기 예제 트레이 아이콘(Tray Icon)이란? 윈도우 작업표시줄 우측 아이콘 트레이에 표시되는 아이콘을 의미합니다. ※ 트레이 아이콘 추가 / 수정 / 삭제// ---------- 추가 ----------m_tnd.cbSize = sizeof(NOTIFYICONDATA);m_tnd.hWnd = GetSafeHwnd();m_tnd.uID = 0;m_tnd.uFlags = NIF_MESSAGE | NIF_ICON | NIF_TIP;m_tnd.uCallbackMessage = WM_TRAY_NOTIFY;_tcscpy(m_tnd.szTip, _T("TrayIcon")); // 툴팁 텍스트 설정m_pIconList = pList; // 아이콘 리스트 지정m_tnd.hIcon = m_pIconList[0]; .. 2025. 1. 9. [Python] HuggingFace로 오픈소스 AI모델 구동해보기 [04] [Python] GPU로 AI 모델을 구동하기 위한 PyTorch + CUDA + cuDNN 설정 방법 [03][Python] LangChain으로 Llama3 언어 모델 구동해보기 [02][Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로dev-drive.tistory.com 허깅페이스란? 현재 가장 유명한 인공지능 플랫폼으로 자연어 처리를 위한 Transformer 라이브러리와데이터 처리를 위한 Datasets 라이브러리, 데이터를 토큰화 시키는 Tokenizers 라이브러리 등 AI모델 처리를 위한 다양한 편의 기능을 제공하고 Hub를 통해 모델을 호스팅하거나 공유할 수 있는 플.. 2024. 9. 10. [Python] GPU로 AI 모델을 구동하기 위한 PyTorch + CUDA + cuDNN 설정 방법 [03] [Python] LangChain으로 Llama3 언어 모델 구동해보기 [02][Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로 공개했습니다.OpenAI의 GPT로 테스트를 진행하려면dev-drive.tistory.com AI모델 테스트는 CPU를 사용해서 진행해도 되지만 실제 서비스를 하기 위해서는병렬처리에 특화된 GPU를 사용해서 모델을 구동시켜야 합니다. 아시겠지만 최근 엔비디아가 핫한 이유도 AI모델 구동에 GPU가 필수적이기 때문입니다. https://www.nvidia.com/ko-kr/geforce/graphics-cards/40-series/ 엔비디아 GPU의 사양 리.. 2024. 7. 29. [Python] LangChain으로 Llama3.1 언어 모델 구동해보기 [02] [Python] 메타의 대규모 AI 언어모델 Llama3 설치 및 사용방법 [01]메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로 공개했습니다.OpenAI의 GPT로 테스트를 진행하려면 카드를 등록해서 API비용도 지불해야되고 여러 가지 껄끄러dev-drive.tistory.com 라마3 모델의 한국어 처리 능력을 향상시키려면 한국어로 파인튜닝된 모델을 사용하거나,LangChain을 통해 한국어로 번역한 후 답변해 달라고 요청하는 등의 방법을 사용할 수 있습니다. 파인튜닝(Fine-tuning)이란? 이미 학습된 머신러닝 모델을 새로운 데이터나 특정 작업에 맞게 추가로 학습시키는 것을 의미합니다. 랭체인(LangChain)이란? 지시사항이나 답변 예시 등 .. 2024. 6. 27. [Python] 메타의 대규모 AI 언어모델 Llama3.1 설치 및 사용방법 [01] 메타에서 AI기술의 발전을 가속화 할 수 있도록 대규모 언어 모델(LLM)을 오픈소스로 공개했습니다. OpenAI의 GPT로 테스트를 진행하려면 카드를 등록해서 API비용도 지불해야되고 여러 가지 껄끄러운 부분이 많은데 무료로 로컬에서 테스트해볼 수 있는 괜찮은 모델이니 관심 있으신 분들은 설치해서 테스트 해보시길 바랍니다. 우선 가장 쉽게 테스트 해보기 위해서는 Ollama라는 클라이언트 프로그램을 설치해야 합니다. Download Ollama on WindowsDownload Ollama on Windowsollama.com사이트에 접속해서 운영체제를 선택한 후 Ollama를 다운로드 받습니다. (설명은 윈도우로 하겠습니다) 다운로드가 완료되면 설치파일을 실행하여 설치를 진행합니다. 설치가 완료되면 .. 2024. 6. 27. 비주얼스튜디오(VS) 다중 문자열, 여러 단어 검색 방법 BEGIN_MESSAGE_MAP(CAboutDlg, CDialogEx)END_MESSAGE_MAP()예를 들어 이런 코드가 있다고 했을 때 "CAboutDlg"과 "CDialogEx"이 한 라인에 연달아서 나오지 않고떨어진 경우까지 검색하고 싶은 경우에는 일반적인 방법으로는 불가능하고 정규표현식을 사용해서 검색해야 합니다. 비주얼스튜디오에서 Ctrl + Shift + F를 누르면 나오는 검색 창입니다.정규식 사용을 체크해주고 검색할 정규식을 입력합니다. ^(?=.*A)(?=.*B).* 이런 식으로 A, B 자리에 원하는 문자열을 넣어주면 다음과 같이 검색할 수 있습니다. 2024. 5. 14. 이전 1 2 3 4 5 다음 반응형