선배님들 로컬 LLM vs Cursor 어느쪽을 더욱 선호하시는지 궁금합니다

저는 코딩을 처음 배울때 부터 AI와 함께 시작했습니다.

처음에는 GPT3.5 로, 현재는 Cursor를 주로 사용해서
Unity에서 개발을 진행중입니다.

프로그래밍이나 AI에 지금보다 더욱 무지할때는 상용 AI가 제일 빠르고 그 어떠한 것 보다 좋은 방법인줄 알았습니다. 로컬 LLM은 천만원 정도는 써야 상용 AI 성능정도 뽑는다! 라고 생각했습니다.

허나 최근에 로컬 LLM이 기본적인 벤치마크 성능은 안좋을 지라도 특정 작업을 하는데 있어서 제가 원하는 방향으로 더욱 나은 결과물이 나올 수 있다고 다른 개발자 분에게 들었습니다. (Gemma3:12b)정도만 되어도 좋다고 하더군요

제가 개발자 인맥이 있는것도 아니고, 따로 여쭤볼만한 실무자 분이 안계시다보니 이곳에 계신 선배님들은 개발을 할 때 어떤 방식을 더 선호하시는지 궁금하여 질문글을 올립니다.

회사에서 뿐만이 아니라 개인적으로도 어떻게 사용하시는지 궁금합니다!

3개의 좋아요

저는 코드를 위해 VS 코파일럿 무료 버전 쓰고 있습니다.

프로젝트 초기에는, 어디서 줏어 들은 코드를 지 맘대로 생성하는데, 그거 다 무시하고, 제가 전체 구조를 잡고 나니까 그 다음부터는 딱 마음에 드는 코드를 제안해줘서 편리하게 쓰고 있습니다.

맥락을 이해할 정도로 일정 량의 뼈대 코드를 제공하면, ai 종류나 성능은 크게 문제되지 않은 것 같습니다.

UI 를 위해서도 써 보긴 했는데, 그건 제가 맥락을 만들어 낼 정도로 전문성이 없어서 그런가, 유료 버전(Claude)을 써도 결과물이 나아질 기미를 보이지 않더군요.

5개의 좋아요

개인적으로는 로컬 LLM 만으로는 하드웨어가 좋아도 RAG로 참조할 수 있는 데이터의 볼륨에 엄청난 차이가 있기 때문에, 애플리케이션에 통합되는 용도의 LLM (혹은 더 정확히 표현하면 SLM)이 아니면 개발 목적으로는 쓰기 어렵지 않은가 생각합니다.

그리고 저도 BigSquare님처럼 Cursor 보다는 Visual Studio Code에 GitHub Copilot을 주로 사용합니다. 제가 주로 사용하는 워크로드가 .NET이고, 공식적으로 컴플라이언스 이슈 없이 C# Dev Kit을 사용하려면 Visual Studio Marketplace를 이용할 수 있는 권한이 주어지는 Microsoft Visual Studio Code를 주로 사용하게 되기 때문인 것이 가장 큰 이유입니다.

반면, C#과 .NET 개발 워크로드에 의존하지 않는다고 하면 Cursor, Windsurf 등 여러 선택지가 많이 있을 것이고 가장 편하다고 느끼는 도구를 찾아가는 과정을 거치면 적절한 도구를 찾으실 수 있을 것이라고 생각합니다.

덧붙임: 에이전트 모드로 쓸 수 있는 것은 애석하게도 VSCode에 국한되고, VS 2022 IDE는 이런 부분에 대한 지원이 아직 많이 부족해서, VS 2022 IDE와 페어로 쓸 수 있는 VS Code + C# Dev Kit 조합을 선호합니다.

6개의 좋아요

저 같은 경우 chatbox와 ollama(Docker)로 gemma3, DeepSeek-R1, CodeStral 3가지의모델들을 변경해서 사용 해봤지만 세세한 프롬프트를 넣어도 결과물이 좋아보이지는 않았습니다.

3개의 좋아요

이건 아마 개발 같은거에 활용하는걸 말하신게 아니라 앱에 내장하는 것과 같은 특정 서비스를 위한 AI 모델을 튜닝해서 쓰는 걸 말하신게 아닌가 싶습니다.

친절하신 답변 감사합니다 선배님! 결국 파일럿의 실력이 좋다면 AI 의 성능은 중요치 않다는게 보이는 것 같습니다! 스스로 역량을 더욱 올리는게 더 나은 AI를 쓰는 것보다 낫다는 생각이 들었습니다!

선배님의 글을 보면서 개발 환경에 따라서도 AI 도구를 선택하는 방법을 잘 생각해야 되겠다는 생각이 들었습니다. 유니티 개발에서 C# 관련된 익스텐션이 커서에서 작동하지 않을 때는 정말 힘들었는데 생각해보니 vscode 에 copilot이었다면 더 쉬웠겠네요 ㅎㅎ;

1개의 좋아요

오! 구체적인 경험을 말씀해주셔서 감사합니다! 저도 qwen 과 gemma로 가볍게 돌려보는데 역시 아쉽게도 cursor보다 더 나은 경험이 나오지는 않았습니다

아! 해당 말씀을 하신 개발자 분은 jetbrain에서 ollama 를 연결해서 gemma를 활용해서 작업을 하시는 분이셨습니다! , 로컬 LLM 세팅을 정확히 어떻게 했는지는 듣지 못했지만 cursor나 windsurf보다 더욱 프로젝트 이해도가 높은 로컬 llm으로 작업을 하면서 편하다고 하시더군요

cursor도 그렇게 좋다??고 보기에 아직 멀었지만 서브로 쓰기에 딱입니다.
AI를 쓰기전에 자신이 공부해보고 깊은 탐구선에서 AI툴을 활용하면 확실히 쓸만하지 않나 개인적인 생각입니다.

1개의 좋아요