M1 맥북에서 Ollama로 로컬 LLM 돌리기 실전 — 7B/13B 모델 선택과 속도 최적화 완벽 정리

📚 이 글의 전체 가이드 — AI 부업 허브 AI 도구 선택부터 월 100만 원 부업까지 실행 순서 큐레이션 2024년 늦가을, M1 맥북 프로 16GB 한 대로 로컬에서 Llama 3 8B를 처음 띄웠을 때를 또렷이 기억한다. “AI는 반드시 클라우드"라는 통념이 깨지는 순간이었다. 인터넷이 없는 카페에서, ChatGPT API 호출량 걱정 없이, 회사 보안 정책에 걸리는 코드 스니펫을 그대로 붙여 넣고 답을 받아본 경험. 한 번 맛보면 돌아가기 어렵다. ...

2026년 4월 28일 · 8 분 · 태경민