배달의민족 Flutter 도입과 아키텍처 설계 교훈

배달의민족은 주문접수 채널에서 Flutter를 도입하여 멀티 플랫폼 대응력을 높이고, Clean Architecture를 통해 효율적인 코드 관리를 실현했습니다. 이 글에서는 Flutter 도입과 아키텍처 설계의 과정에서 얻은 교훈을 바탕으로, 변화하는 비즈니스 요구에 맞추기 위한 혁신적인 접근을 소개합니다. 또한, 이러한 경험이 다른 기업이나 개발자에게도 유용한 전략이 될 수 있도록 공유하고자 합니다. Flutter 도입으로 인한 혁신적인 변화 배달의민족은 Flutter 도입을 통해 플랫폼 전환과 유지보수 측면에서 큰 혁신을 이루었습니다. 기존의 Windows, Android, iOS 플랫폼에 추가하여 macOS와 다양한 Android 디바이스로까지 확장할 필요성을 느꼈습니다. Flutter의 도움으로 단일 코드베이스에 의해 멀티 플랫폼을 동시에 지원할 수 있게 되었고, 이를 통해 개발자 수를 줄이고 생산성을 향상시킬 수 있었습니다. 개발자들은 각 플랫폼에 대해 반복적으로 구현할 필요가 없어졌고, 버그 수정이나 기능 변경 시에도 이전에 비해 적은 시간에 모든 플랫폼에 적용할 수 있게 되었습니다. Flutter의 도입은 크로스 플랫폼 반응형 UI 구현을 가능하게 하여, 사용자 경험의 일관성을 높였습니다. 이제 파트너들은 다양한 OS 환경에서 동일한 경험을 하게 되므로, 학습 비용도 줄어들고, 혼란이 줄어드는 장점을 경험하고 있습니다. 이러한 변화는 단순히 기술적인 접근방식이 아닌, 사업의 방향성을 전환하는 계기로 작용했습니다. 파트너사들이 원하는 효율적인 주문 관리 시스템을 제공하기 위해, 기존의 네이티브 아키텍처에서 벗어나 새로운 기술 스택으로 과감히 옮겨갔습니다. Firebase와 같은 클라우드 서비스를 활용하여 실시간 데이터 업데이트와 동기화가 가능하게 되었고, Flutter의 강점을 극대화하여 사용자 친화적인 UI/UX도 구현됐습니다. 이로 인해 즉각적인 피드백을 수렴할 수 있는 구조가 마련됐습니다. 결국 Flutter의 도입은 배달의...

AI 플랫폼 2.0의 LLMOps 확장과 운영 전략



1. LLMOps를 통한 제품 운영의 혁신

AI 플랫폼 2.0은 기존의 모델 중심 운영 방식에서 벗어나, AI 제품 전체의 생태계를 관리할 수 있는 새로운 접근법을 도입했습니다. 그 중심에는 LLMOps가 있습니다. LLMOps는 단순히 모델을 호출하는 기술을 넘어, 개발자들이 AI 모델을 실험하고 운영하며 지속적으로 개선할 수 있는 체계를 제공합니다.

이를 통해 AI 서비스 운영의 복잡성이 크게 감소하고, 팀 간 협업이 강화되었습니다. 특히, 우아한형제들은 LLMOps를 통해 실험적 접근과 운영적 안정성을 동시에 확보하는 데 주력하고 있습니다. LLMOps 기반의 운영 전략은 빠른 반복 실험, 즉각적인 피드백, 그리고 성능 관리라는 세 가지 축을 중심으로 설계되었습니다.

이 혁신을 가능하게 한 핵심 구성요소로는 GenAI Studio, Labs, SDK, API Gateway가 있습니다. 각 컴포넌트는 LLMOps의 관점에서 긴밀히 연결되어 있으며, 통합 운영 사이클을 구성합니다.

GenAI Studio는 프롬프트 관리, 성과 추적, 데이터셋 관리 기능을 제공하며, 개발자와 비개발자 모두가 손쉽게 프로젝트를 실험할 수 있는 환경을 조성합니다. 이를 통해 실험 주기가 단축되고, 모델 개선이 반복적으로 이루어집니다.

Labs는 모델 실험과 비교 평가를 위한 환경으로, 다양한 프롬프트와 파라미터 조합을 테스트할 수 있도록 지원합니다. 빠른 실패와 빠른 피드백 구조를 통해 AI 기능의 품질이 지속적으로 향상됩니다.

SDK는 여러 벤더의 API를 하나의 인터페이스로 통합하여, 개발자들이 복잡한 설정 없이 다양한 LLM을 호출할 수 있도록 단순화합니다.

API Gateway는 OpenAI 호환 구조를 갖추고 있어, 외부 서비스나 사내 시스템과의 연동을 유연하게 처리합니다.

이러한 구성은 단순한 기술 스택을 넘어, AI 서비스를 실제 비즈니스 환경에 안정적으로 녹여내는 운영 중심의 LLMOps 생태계를 완성하고 있습니다. 결과적으로 기업은 실험-운영-개선의 주기를 신속하게 반복하며, 시장의 변화에 능동적으로 대응할 수 있게 되었습니다.

2. 통합 플랫폼의 구성 및 운영 전략

AI 플랫폼 2.0의 핵심은 통합된 시스템 아키텍처입니다. LLMOps 환경에서 다양한 컴포넌트가 유기적으로 연결되어야 운영 효율성을 극대화할 수 있습니다.

GenAI Studio, Labs, SDK, API Gateway는 서로의 역할을 명확히 하면서도 긴밀히 협력합니다. 이러한 구조를 통해 프롬프트 설계, 성능 분석, 비용 추적이 자연스럽게 이어지고, 개발자 경험(DX)과 운영 효율성 모두가 향상됩니다.

예를 들어, GenAI Studio에서는 프롬프트 버전 관리와 실험 로그를 자동으로 추적하여 신뢰성 있는 결과를 제공합니다. Labs는 이를 토대로 모델 비교 분석을 수행하며, API Gateway를 통해 즉시 서비스 환경에 반영할 수 있도록 지원합니다.

이러한 구조는 데이터 기반 의사결정(Data-Driven Decision)을 가능하게 하며, 팀 단위 협업을 넘어 조직 전체의 AI 역량을 통합적으로 강화합니다. SDK를 통한 접근성 향상은 비개발자도 AI 모델을 활용할 수 있게 만들어, 조직 전반의 혁신 속도를 가속화합니다.

또한, 통합 플랫폼은 확장성과 안정성을 모두 고려하여 설계되었습니다. 확장성 측면에서는 멀티 클라우드 환경에서의 연동을 지원하고, 안정성 측면에서는 API Gateway의 요청 관리 및 로깅 기능으로 운영 리스크를 최소화합니다.

이러한 통합 전략은 운영팀과 기술팀의 협업 효율을 높이며, 문제 발생 시 신속하게 원인을 파악하고 대응할 수 있는 환경을 제공합니다. 결국 AI 플랫폼의 유연한 구조는 변화하는 시장 환경 속에서도 안정적으로 성장할 수 있는 발판이 됩니다.

3. 비즈니스 임팩트를 극대화하는 AI 운영 전략

AI 플랫폼 2.0은 기술적 성과에 그치지 않고, 비즈니스 전반의 효율을 극대화하는 방향으로 발전하고 있습니다. LLMOps는 단순한 기술 관리가 아닌, 조직 운영의 근본적인 변화를 촉진하는 프레임워크로 작용합니다.

기존에는 모델 성능 개선이 기술팀의 영역에 머물렀다면, 이제는 마케팅, 고객 서비스, 전략 기획 등 다양한 부서가 LLMOps 플랫폼에 직접 참여합니다. 이를 통해 AI가 실제 비즈니스 프로세스에 긴밀히 통합되고, 부서 간 협업을 통한 시너지가 극대화됩니다.

특히 GenAI Studio의 시각화 도구와 리포트 기능은 데이터 기반 의사결정을 실시간으로 지원합니다. 모델 성능, 응답 품질, 비용 지표를 한눈에 확인할 수 있어, 비즈니스 전략 수립의 속도가 획기적으로 향상되었습니다.

또한, Labs 환경을 통해 빠른 실험이 가능해짐에 따라 AI 프로덕트 출시 주기가 단축되고, 시장 대응력이 강화되었습니다. SDK와 API Gateway는 외부 파트너나 고객 시스템과의 통합을 단순화하여, 새로운 서비스 모델을 신속히 구현할 수 있게 했습니다.

이러한 운영 전략은 단순히 효율성 향상을 넘어, AI 기술을 통한 직접적인 비즈니스 임팩트 창출을 목표로 합니다. 실제로 AI 플랫폼 2.0의 도입 이후, 실험 속도와 운영 안정성이 향상되었으며 이를 기반으로 제품 출시 주기가 단축되는 등 가시적인 효과가 보고되었습니다.

결론: LLMOps를 통한 지속 가능한 AI 혁신

AI 플랫폼 2.0은 기술 중심의 시스템을 넘어, 사람-프로세스-기술이 결합된 AI 운영 생태계를 완성하고 있습니다. LLMOps는 반복 가능한 실험 구조와 안정적인 서비스 운영을 가능하게 하여, AI가 실질적인 비즈니스 가치를 창출하도록 돕습니다.

우아한형제들의 AI 플랫폼 2.0은 GenAI Studio, Labs, SDK, API Gateway를 통해 개발자 경험을 혁신하고, 데이터 기반 의사결정을 강화하며, 기업 전체의 AI 활용 역량을 확장하는 기반이 되고 있습니다.

앞으로의 목표는 단순한 기술 운영을 넘어, 모든 구성원이 참여할 수 있는 AI 프로덕션 환경을 조성하는 것입니다. 이를 통해 AI 기술은 더 이상 특정 부서의 도구가 아니라, 조직 전체의 성장 엔진으로 자리 잡게 될 것입니다.

이 블로그의 인기 게시물

우아한형제들의 실시간 알림 혁신: SSE(Server-Sent Events)로 이룬 효율성과 안정성

우아한 디버깅 툴 개선으로 QA 업무 효율화

물어보새의 진화와 지식 공유 확장