검색창 열기 인더뉴스 부·울·경

News Plus 뉴스+

배민 배달원들, 배민커넥트 ‘역차별’ 개선 목소리 높아져

URL복사

Thursday, October 24, 2019, 03:10:39

배민커넥트 배달원 수익 높은 단거리 콜 단독 추천
장거리·직접 결제 건 모두 배민라이더에게 몰려
배민라이더 “요기요로 가는 배민라이더 급증해”

 

인더뉴스 주동일 기자 | “배민커넥트가 남긴 찌꺼기 주워먹기도 지쳐요.”, “요기요에 지원했어요. 배민한테 뒷통수 맞은 기분이라서요.” 배달의민족 배달원(배민라이더) 두명이 23일 말했다. 다른 배달원은 “요기요 담당자 말로는 지금 지원하는 배달의민족 라이더가 엄청 많다던데요”라고 덧붙였다.

 

배민라이더들 중 일부가 배민커넥트 배달원들에 대한 특혜 때문에 ‘요기요’ 등 경쟁사로 소속을 옮기는 것으로 나타났다. 배달업체의 중요 경쟁력인 ‘배달인력 확충’을 위해 커넥트를 도입했지만, 이 때문에 전문 배달원들이 배달의민족에서 일하기를 그만두고 있다.

 

배민커넥트는 점심·저녁에 급증하는 배달 수요를 고려해 배달의민족이 지난 7월 도입한 크라우드소싱 서비스다. 이를 통해 자전거·전동 킥보드·오토바이 등을 타고 ‘쿠팡플렉스’처럼 누구든 원하는 시간에, 원하는 만큼 배달 일을 할 수 있다.

 

문제는 비전문 배달원인 배민커넥트 배달원을 위한 수익보장 조치였다. 배달의민족은 수익성이 높은 단거리콜(배달지역까지 직선거리 2km 미만)을 15초동안 배민커넥트 배달원들에게만 단독으로 먼저 보여주는 ‘추천 배차’ 시스템을 실행 중이다.

 

하지만 이 때문에 배민라이더들은 단거리 콜을 받기 어려워졌다. 단거리 콜은 장거리 콜과 비교했을 때 배달 시간이 짧아 수수료 대비 근무 시간이 적다. 장거리 콜을 할 경우 ‘거리 할증’을 받기도 하지만, 일반적으론 같은 시간 동안에 단거리 콜을 여러번 끝내 건당 수수료를 받는 편이 더 많은 돈을 번다.

 

이 때문에 배달원들은 장거리 콜을 ‘똥콜’이라 부르며 덜 선호한다. 이에 더해 배민라이더들은 배달 거리에 상관없이 받을 수 있는 배달 콜 수 자체도 줄어들었다고 설명했다. 비전업 배달원들을 위한 배달의민족의 정책이 전업 배달원들의 생계에 어려움을 준 것이다.

 

 

실제로 한 배달원은 “배민커넥트 이후로 한 시간에 평균 배달을 세 건도 못하는 날이 많다”며 “오늘은 오토바이 대여비 버는 데에 만족했다”고 말했다.

 

다른 배민 라이더들은 “커넥트랑 콜을 같이 보여줘라”, “배달 수수료가 그대로여서 수입원은 줄고, 렌탈료를 그대로 받는데 이건 착취다”, “오늘까지만 해야겠다. 못해먹겠다” 등의 반응을 보였다. 실제로 함께 채팅방에서 대화하던 배민라이더 중 두 명은 다음날 “퇴사했다”고 밝히기도 했다.

 

배민라이더들의 불만은 이뿐만이 아니었다. 배민라이더들에 따르면 배민커넥트 배달원들은 배민라이더들과 달리 배달 콜을 취소할 수 있다. 배달하기 힘든 피치못할 사정을 염두에 둔 것으로 보이지만, 더 마음에 드는 콜이 있을 때 받아둔 콜을 취소하는 식으로 악용할 여지가 있는 기능이다.

 

또 배민커넥트 배달원들은 소비자와 만나 현금이나 카드 결제를 해야하는 배달 건을 맡지 않는 것으로 밝혀졌다. 비전문 배달원들이 카드 결제기와 거스름돈 등을 챙기는 것이 부담이었을 거라는 추측이 나오고 있지만, 시간 단축이 생명인 배달업계에서 배민라이더들은 “결제 때문에 늦어지기까지 한다”고 지적했다.

 

이에 한 배민라이더는 “콜을 잡기 힘들어 요기요나 배민커넥트로 넘어가는 배민 라이더도 있다”며 “보통 배민에서 배달비 무료 이벤트 등을 하는 날엔 배달 주문이 많았지만, 이젠 그마저도 배민 커넥트가 다 가져간다”고 설명했다.

 

다른 배민라이더는 “배민라이더들의 장거리 배달 수수료 제도를 바꾸는 식으로 개선할 거라는 이야기를 들었다”며 “단거리 배달은 커넥트를 활용하는 식으로 갈 것 같다”고 말했다. 배달의민족 측은 “개선책 등을 준비하고 있지만 아직 구체적인 내용은 말씀드릴 수 없다”고 말했다.

 

배달업계 관계자는 “식사 시간에 몰리는 배달 수요를 충족하기 위해 배민커넥트를 도입한 것을 장기적으로 이해할 필요는 있다”며 “하지만 개인사업자인 배달원들 수익을 고려할 수밖에 없고, 실제로 배달 요금·건수·대여·보험 등에 따라 회사를 옮기기도 한다”고 말했다.

 

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

주동일 기자 jdi@inthenews.co.kr

배너

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

2025.10.28 09:00:00

인더뉴스 이종현 기자ㅣ네이버클라우드는 국내 최초의 AI 데이터센터인 '각 세종'에서 열린 테크밋업에서 GPU 운영 효율을 극대화하고 AI 인프라를 스스로 설계·운영할 수 있는 기술 역량을 공개했다고 27일 밝혔습니다. 네이버클라우드는 글로벌 수준의 GPU 운영 내재화 역량을 기반으로 산업 전반의 AI 활용을 높이겠다는 계획입니다. 이상준 네이버클라우드 CIO는 "AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다"라며 "네이버클라우드는 GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다"라고 말했습니다. 네이버는 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟(SuperPod')을 세계에서 가장 빠르게 상용화한 기업으로 초고성능 GPU 클러스터를 직접 설계·운영한 경험을 보유하고 있습니다. 이러한 실증 경험을 바탕으로 '각 세종'에서 대규모 GPU 클러스터를 직접 설계·운영하며 냉각·전력·네트워크 등 데이터센터 핵심 인프라를 자체적으로 설계하고 AI 워크로드에 최적화하는 기술을 내재화했습니다. 이상준 CIO는 이어서 "네이버의 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "이처럼 인프라를 하나의 시스템으로 통합적으로 설계·운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다"라고 강조했습니다. '각 세종'은 기존 IDC가 수행하던 저장·처리 기능을 넘어 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐습니다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했습니다. AI 연산이 집중되는 데이터센터에서 가장 중요한 요소는 발열 관리입니다. GPU 전력 밀도가 높아지면서 냉각은 효율과 안정성을 좌우하는 핵심 요소가 됐습니다. 이에 '각 세종'은 '각 춘천' 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했습니다. 이는 계절별로 냉각 방식을 자동 전환해 겨울에는 외부의 찬 공기로 직접 냉각하고 간절기와 여름에는 간접외기와 냉수를 병행합니다. 이를 통해 GPU 밀도가 높아져도 안정적인 열 제어와 높은 에너지 효율을 유지할 수 있습니다. 또한, 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중입니다. 이를 기반으로 네이버클라우드는 고전력·고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화하고 수냉식 서버 냉각 관련 자체 특허도 출원 완료했습니다. '각 세종'은 장애 상황에서도 서비스가 멈추지 않도록 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 통합한 이중화 구조로 설계됐습니다. GPU 서버의 고전력 특성에 맞게 UPS(무정전 전원 장치)와 배전 설비를 재배치해 장애 전파를 구조적으로 차단했으며 이러한 구조 '각 세종'이 24시간 안정적으로 운영할 수 있는 핵심 기반입니다. 네이버는 수십만대 서버 운영 경험을 바탕으로 표준화된 인프라 구조와 자동화된 운영 체계를 구축했습니다. 모든 서버는 도입 전 단계에서 성능·전력 효율·운용성을 검증해 표준 사양으로 구성되며 GPU 등 고성능 자원은 실시간 상태 감시와 자동 복구 기능을 통해 장애 발생 시에도 안정적인 서비스 연속성을 유지할 수 있습니다. 또한 GPU 클러스터 운영에는 자원 관리·배치·복구를 자동화하는 기술이 적용돼 대규모 환경에서도 일관된 효율과 안정성을 유지하고 있으며 반복적인 장애 대응이나 자원 조정 작업 상당 부분도 시스템이 자동으로 처리하도록 설계됐습니다. 네이버는 이러한 운영 기술을 GPU 뿐 아니라 데이터센터 전반의 인프라 관리 영역으로 확장하며 복잡한 AI 워크로드 환경에서도 예측 가능한 인프라 운영을 실현하고 있고 향후 AI 기술을 활용해 운영 효율을 지속적으로 고도화한다는 계획입니다. 이러한 운영 기반 위에서 네이버의 AI 플랫폼은 모델 개발부터 학습, 추론, 서빙까지 AI의 전 과정을 하나로 연결하는 통합 운영 체계로 작동합니다. 내부적으로는 하이퍼클로바(HyperCLOVA)의 학습과 운영이 모두 이 플랫폼 위에서 이루어지며 GPU 자원 배분, 모델 관리, 스케줄링까지 효율적으로 통제됩니다. 이에 개발자는 인프라 제약 없이 학습·실험을 진행할 수 있고 운영자는 GPU 사용 현황과 전력 효율을 실시간으로 모니터링 및 분석하고 적재적소에 최적화 요소를 적용할 수 있어 네이버의 AI 플랫폼은 AI 개발과 운영이 하나로 통합된 'AI 인프라의 두뇌'로 자리 잡고 있습니다. 네이버클라우드는 이렇게 내부에 축적한 기술과 운영 역량을 기반으로 GPUaaS(GPU as a Service) 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있습니다. 이상준 CIO는 "네이버클라우드는 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라면서 "이를 통해 AI 인프라가 특정 기업의 자산을 넘어, 산업 전반의 성장 기반이 될 수 있도록 하겠다"라고 말했습니다.




배너