| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
Tags
- 플러터
- AI
- python3.9
- Intel
- python3.9.0
- dreamhack
- ida pro 7.6
- WinPcap
- Flutter
- NMAP
- 벡엔드
- 개발
- Python
- npcap
- WarGame
- 논문 리뷰
- go
- 2024
- 모바일웹개발
- Protocol
- ida python
- 프론트엔드
- cpu
- ida pro
- 스타트업
- python3.9.1
- Scapy
- forensic
- Apple Silicon
- 악성코드 탐지
Archives
- Today
- Total
목록전체 글 (37)
foxcomplex
WSL2(Ubuntu 24.04)에서 llama.cpp 빌드 및 GPU 서버 실행 완벽 정리
안녕하세요! 로컬에서 LLM을 돌리기 위해 llama.cpp를 사용하시는 분들이 많으신데요, 특히 WSL2 환경에서 NVIDIA GPU를 사용하도록 직접 빌드하는 과정은 예상치 못한 오류들의 연속일 수 있습니다. 😭이 글에서는 수많은 오류를 해결하며 얻은 최종 성공 방법만을 모아 WSL2에서 llama.cpp를 완벽하게 빌드하고 GGUF 모델을 서버로 실행하는 과정을 순서대로 안내합니다.1단계: 필수 패키지 및 CUDA Toolkit 설치가장 먼저 컴파일에 필요한 모든 도구와 라이브러리, 그리고 GPU 사용을 위한 CUDA Toolkit을 설치합니다.1. 기본 빌드 도구 및 라이브러리 설치터미널을 열고 아래 명령어를 실행해 git, cmake, libcurl 등 필수 패키지를 한 번에 설치합니다.Bas..
LLM 개발
2025. 10. 1. 14:28