loading...

클라우드 AI vs 온디바이스 AI: 공존과 진화의 방향

최근 인공지능 활용 방식은 두 갈래로 나뉜다. 하나는 거대한 파운데이션 모델(FM, Foundation Model)로, 클라우드의 방대한 데이터센터에서 동작하는 AI다. 다른 하나는 스몰 랭귀지 모델(SLM, Small Language Model)처럼 스마트폰이나 PC 등 디바이스 내에서 직접 실행되는 AI다. 이러한 구조는 IT 역사에서 서버와 클라이언트가 공생하며 발전해 온 흐름과 일맥상통한다. 중앙집중형과 분산형 컴퓨팅의 변천사를 배경으로 클라우드 속 AI와 온디바이스 AI의 장단점을 살펴보고, 두 방식의 공존이 만들어갈 미래를 분석한다.

서버와 클라이언트의 공생 속에 발전한 컴퓨터

초기의 컴퓨팅 환경은 중앙집중형이었다. 1960~70년대에는 거대한 메인프레임 서버 한 대에 여러 사용자가 단말기를 통해 접속하는 구조로 모든 연산이 서버에서 이루어졌고, 클라이언트 단말은 입출력만 담당했다. 이후 1980년대부터 본격적으로 개인용 컴퓨터(PC)의 등장하면서 컴퓨팅 권한이 클라이언트로 분산되기 시작했다. 1990년대부터 본격적으로 PC 보급이 늘면서 사람들은 각자 컴퓨터를 소유하게 되었고, 중앙 메인프레임 위주의 계산 작업이 개인 기기로 분산되었다. 예를 들어 예전에는 은행 업무를 한 메인프레임이 도맡았다면, PC 시대에는 가정이나 사무실에서 스프레드시트를 이용해 간단한 회계 작업을 수행할 수 있게 된 것이다.

초기의 컴퓨터 환경 모습 (출처: 구글 제미나이 Imagen 3로 생성)

하지만 클라이언트↔서버 모델 역시 발전했다. PC 시대에도 기업들은 데이터베이스 서버를 두고 클라이언트 PC에서 데이터를 요청하는 클라이언트↔서버 구조를 활용했다. 1990년대 인터넷이 보급되면서 웹 서버와 브라우저 간의 새로운 클라이언트↔서버 관계가 탄생했고, 애플리케이션은 다계층 구조로 분리되어 서버는 데이터와 비즈니스 로직을, 클라이언트는 UI와 일부 로컬 처리를 담당하는 형태가 일반화되었다. 이처럼 서버와 클라이언트는 경쟁보다는 역할 분담을 통해 상호보완적으로 발전해 왔다. 사용자의 단말 성능이 향상되면서 클라이언트는 풍부한 인터페이스와 로컬 기능을 제공했고, 동시에 서버는 중앙에서 공유 데이터와 대규모 연산을 처리하여 둘이 협력하는 구조를 만들어냈다.

2000년대 들어 인터넷 대역폭이 증가하고 모바일 기기가 보급되면서 다시 중앙집중형 모델에 대한 요구가 커졌다. 스마트폰과 같은 휴대기기는 성능과 배터리 제약으로 복잡한 연산을 감당하기 어려워 이를 보완하기 위해 클라우드 컴퓨팅이 등장했다. 1990년대 후반부터 대규모 데이터센터를 구축해 인터넷을 통해 온디맨드로 컴퓨팅 자원을 제공하는 클라우드 모델이 본격화한 것이다. 특히 컴퓨터, 노트북, 태블릿 그리고 스마트폰 더 나아가 회사와 집에서 사용하는 여러 컴퓨터로 개인 디바이스들이 분산되어 로컬별로 흩어진 파일이나 소프트웨어 등을 보다 효율적으로 관리하기 위해 클라우드의 필요성이 증대되었다. 그런 클라우드는 물리적인 데이터센터에 자리 잡았다. 결과적으로 컴퓨팅 구조는 “중앙집중 → 분산 → 재 중앙집중”의 사이클을 그리게 되었다. 예를 들어 2000년대 중반 등장한 웹메일(Gmail 등)은 이메일을 클라우드 서버에서 관리하고 사용자는 브라우저(클라이언트)만 통해 접속하는 씬 클라이언트 방식을 채택했는데, 이는 로컬 PC에 Outlook 같은 소프트웨어를 설치해 쓰던 과거와 대비된다.

클라우드 모델 이미지 (출처: 구글 제미나이 Imagen 3로 생성)

최근에는 에지 컴퓨팅(edge computing) 흐름과 함께 일부 연산을 단말 쪽에서 처리하려는 움직임이 나타나 중앙과 말단 간 균형추가 재조정되고 있다. 이러한 역사적 흐름 속에서 서버(중앙)와 클라이언트(말단)는 항상 공존해 왔으며, 기술 발전에 따라 어느 쪽에 무게를 둘지 달라지더라도 상호 보완적인 역할을 수행해왔다. 거대한 데이터센터와 사용자 디바이스는 각각의 강점을 살려 공존함으로써 최적의 성능과 사용자 경험을 달성해 왔다.

클라우드 속 FM의 한계와 강점

최근의 ChatGPT발로 시작된 파운데이션 모델(FM)은 거대한 신경망 모델들을 중앙 클라우드에서 동작시키는 형태의 AI다. 수백억~수천억 개의 파라미터를 가진 최신 거대 언어 모델(LLM)이나 멀티모달 AI들은 데이터센터 GPU 팜에서 구동되며 사용자들은 인터넷을 통해 이에 접근한다. 예를 들어 OpenAI의 GPT-4나 구글의 PaLM 2 모델 등이 클라우드상에서 동작하며 API나 애플리케이션 형태로 제공된다. 이러한 클라우드 AI는 막대한 연산 자원을 바탕으로 개별 디바이스로는 불가능한 고성능 AI 기능을 제공한다.

강력한 성능과 확장성 : 클라우드 FM의 가장 큰 장점은 성능과 스케일

데이터센터에서는 가상의 무제한에 가까운 컴퓨팅 자원을 활용할 수 있어 디바이스에서는 감당하기 어려운 복잡한 모델도 구동할 수 있다. 한 서버에서 메모리 수백 GB, 수십 TFLOPS 이상의 GPU 성능을 동원해 거대 모델을 실시간 추론할 수 있어 클라이언트는 네트워크에 연결해 최첨단 AI의 출력을 얻어낼 수 있다. 또한 클라우드 측에서는 필요에 따라 자원을 수평적으로 확장(스케일 아웃)해 동시 접속 사용자 수나 작업량 변화에 탄력적으로 대응할 수 있다. 이는 온디바이스 방식과 달리 서비스 제공자가 중앙에서 부하를 쉽게 분산하고 관리할 수 있음을 의미한다. 서비스 연계성도 뛰어나다. 클라우드에 존재하는 AI는 동일 데이터센터 내의 다양한 서비스 및 데이터베이스와 연동되기 쉬워 한 곳에서 사용자 인증, 데이터 저장, 외부 API 호출 등을 모두 처리할 수 있다. 예를 들어 마이크로소프트의 클라우드 Copilot은 사용자 이메일, 일정, 문서 등을 모두 불러와 종합적으로 분석해 주는 서비스를 제공한다. 이는 클라우드상의 AI가 각 서비스의 데이터를 연계 접근하기에 가능하다. 마지막으로 중앙집중 관리의 이점이 있다. 모델의 업데이트나 유지보수를 서버 측에서 일괄 수행하므로 사용자 디바이스를 일일이 업그레이드하지 않아도 AI 성능을 개선할 수 있다. 예컨대 ChatGPT가 o1이나 o3 등의 새로운 모델을 서버에서 업그레이드하면 전 세계 사용자가 즉시 추론 기능이 강화된 AI 모델을 즉시 이용할 수 있다.

서버 이미지 (출처: 구글 제미나이 Imagen 3로 생성)
현실적 한계

그러나 클라우드 FM에는 현실적인 제약과 단점이 존재한다. 첫째, 레이턴시(latency) 문제다. 클라우드 AI를 사용하면 사용자의 요청이 네트워크를 통해 왕복해야 하므로 응답 지연이 발생한다. 수 밀리초 이내에 처리되는 온디바이스 AI와 달리 클라우드 요청은 일반적으로 수십~수백 밀리초 정도 걸리며 경우에 따라 1초 이상 지연되기도 한다. 실제로 클라우드 기반 음성비서가 명령에 늦게 반응했던 이유가 바로 이 네트워크 지연 때문이다. 둘째, 비용 문제다. 거대 모델을 운영하는 데이터센터는 전력과 하드웨어 비용이 매우 높다. 모델 파라미터 수가 기하급수적으로 늘어나 GPU나 TPU를 수천 대 동원해야 하고, 사용자 수가 많아질수록 운영비용이 기하급수적으로 증가한다. 한 분석에 따르면 ChatGPT 같은 대형 LLM 서비스를 운영하는 데 하루 약 70만 달러 상당의 추론 비용이 소모된다고 한다. 실제로 OpenAI는 이용자 급증에 따라 서버 비용 부담을 줄이기 위해 API 가격을 조정하거나 최적화를 진행 중이다. 셋째, 보안과 개인정보 문제다. 클라우드 AI를 사용하면 사용자 데이터가 외부 서버로 전송되는데 이 과정에서 데이터 유출 위험이나 프라이버시 문제가 발생할 수 있다. 특히 의료, 금융, 법률 등 민감 데이터를 다루는 경우 법규나 기업 정책에 의해 클라우드 업로드가 제한되기도 한다. 공공기관이나 통신, 반도체 등의 국가 기간 산업은 이같은 클라우드 기반의 FM을 이용하는데 제약이 많을 수밖에 없다. 넷째, 인터넷 의존성이다. 클라우드 AI는 항상 온라인 상태를 전제로 하므로 오프라인 환경에서는 아예 동작하지 못한다. 언제 어디서나 AI를 사용하려면 끊김 없는 네트워크 연결이 필수적이지만, 이는 모바일 환경에서는 제약이 될 수 있다. 최근 일부 웨어러블 AI 기기는 클라우드 연결이 없으면 기능을 발휘하지 못해 비판을 받기도 했다. 이처럼 클라우드 기반의 FM은 “성능과 기능 측면의 최고”지만 속도, 비용, 보안, 유연성 측면의 약점을 동시에 지니고 있다.

AI기기의 제약 (출처: 작성자 제작)
  • Privacy : 개인정보 이슈, 빅브라더
  • Speed : 느린 속도
  • Cost: 비싼비용

대안으로서의 온디바이스 AI의 제약

클라우드의 한계를 극복하기 위해 주목받는 것이 온디바이스 AI, 즉 디바이스 내장형 AI다. 이는 작은 규모의 머신러닝 모델(SLM)을 스마트폰이나 PC, IoT 기기 등에 탑재하여 기기 내에서 직접 AI 연산을 수행하는 방식이다. 최근 스마트폰에는 신경망 연산에 특화된 NPU(Neural Processing Unit)가 내장되고, PC에도 GPU나 AI 가속 전용 칩이 등장하면서 디바이스 자체의 AI 처리 능력이 크게 향상되었다. 이로 인해 예전에는 불가능했던 복잡한 AI 작업도 이제는 일부를 디바이스에서 자체 처리할 수 있게 되었다.

내장형 AI (출처: 구글 제미나이 Imagen 3로 생성)

온디바이스 AI의 강점

첫째, 빠른 응답 속도다. 네트워크 레이턴시가 없으므로 실시간 처리가 가능하다. 예를 들어 스마트폰에서 온디바이스 음성인식을 할 경우 음성을 클라우드로 전송할 필요 없이 즉시 디코딩하여 결과를 보여준다. 실제로 구글은 2019년 픽셀폰에 온디바이스 음성 인식 기능을 도입해 오프라인에서도 실시간으로 음성을 텍스트로 변환할 수 있도록 했다. 이처럼 로컬에서 직접 처리하면 반응 시간이 몇 밀리초 수준으로 짧아져 사용자 경험이 크게 향상된다.

둘째, 개인정보 보호다. 데이터가 외부로 나가지 않고 디바이스 내부에서 처리되어 프라이버시 측면에서 유리하다. 예를 들어 최신 아이폰의 시리는 사용자의 음성 명령을 가능하면 기기 내에서 인식 처리하고 메시지 읽기나 개인화 기능도 클라우드에 데이터를 전송하지 않도록 설계되어 있다.

셋째, 오프라인 동작이다. 온디바이스 AI는 인터넷 연결 없이도 동작할 수 있으므로 네트워크가 불안정한 환경이나 비행기 모드에서도 사용할 수 있다. 넷째, 비용 절감이다. 클라우드처럼 요청당 추가 비용이 발생하지 않고 한 번 디바이스에 모델을 탑재하면 지속적으로 사용할 수 있다. 사용자는 구독료나 API 비용 없이 디바이스의 연산 능력 범위 내에서 AI 기능을 활용할 수 있으며 서비스 제공자도 서버 부하를 줄일 수 있다. 이러한 이유로 지연, 비용, 프라이버시 문제를 해결할 수 있는 온디바이스 AI에 대한 기대가 커지고 있으며 많은 업체들이 스마트폰 AI 칩셋과 경량 모델 개발에 투자하고 있다.

작은 모델의 제약

하지만 온디바이스 AI에는 근본적인 한계가 존재한다. 가장 큰 제약은 모델 성능과 용도의 제한이다. 디바이스에서 실시간으로 돌릴 수 있을 정도로 모델을 경량화해야 하기 때문에 거대 언어모델 수준의 종합적이고 고차원적인 지능 구현은 어렵다. 작은 모델들은 주로 단일 목적의 특화 작업에 최적화되며 다룰 수 있는 맥락이나 지식의 범위가 제한적이다. 예를 들어, 스마트폰의 온디바이스 AI는 사진에서 얼굴 인식이나 키보드 자동완성 등 제한된 특정 기능에는 뛰어나지만, ChatGPT처럼 방대한 지식을 바탕으로 다양한 작업을 수행하기 어렵다.

둘째, 하드웨어 자원의 제약이다. 스마트폰은 데이터센터에 비해 CPU, GPU 성능과 메모리 용량이 훨씬 적고 전력도 제한적이다. 아무리 고성능 스마트폰이라도 수백 와트급 전력을 소모하는 서버와 비교하면 연산량의 한계가 명확하다. 따라서 온디바이스에서 돌리는 AI 모델은 수백 MB에서 수 GB 정도로 크기가 제한되며, 연산량도 초당 수십억 회 수준 이하여야 한다. 만약 이 한계를 넘어서는 요구가 생기면 결국 클라우드의 도움이 필요하다.

셋째, 모델 업데이트의 어려움이다. 클라우드 AI는 서버 측 업데이트로 즉각 최신 모델을 사용할 수 있으나 온디바이스 AI는 수백만 대의 기기에 개별 업데이트를 해야 하므로, 사용자가 업데이트를 적용하지 않으면 오래된 모델이 남아 호환성의 혼란을 야기한다. 넷째, 확장성과 유연성의 부족이다. 클라우드에서는 필요할 때 리소스를 늘려 더 큰 모델을 사용하거나 여러 인스턴스로 병렬 처리를 할 수 있지만, 디바이스는 자체 성능 한도 내에서만 동작하므로 급격한 확장이나 동시 다중 요청 처리에 한계가 있다.

경량화 기술과 발전 방향

이러한 제약에도 불구하고 모델 경량화 기술의 발전으로 온디바이스 AI의 성능은 꾸준히 개선되고 있다. 양자화(quantization), 지식 증류(distillation), 모델 구조 최적화 등의 기법을 통해 동일한 모델이라도 정밀도를 약간 희생해 크기를 줄이거나 큰 모델의 지식을 작은 모델에 학습시켜 성능을 높이는 연구들이 진행되고 있다. 예를 들어 구글 픽셀의 온디바이스 음성인식 모델은 약 80MB 크기로, 클라우드와 견줄 만한 정확도를 내면서도 기기에 탑재할 수 있다. 또 다른 예로, 메타는 70억~130억 파라미터 규모의 LLM인 LLaMA 2를 공개했는데, 이는 최신 플래그십 스마트폰에서도 제한적으로 구동될 수 있음을 보여준다. 실험적이긴 하지만 미스트랄AI가 공개한 Small 3나 DeepSeek의 8B 파라미터 버전 등은 컴퓨터에 설치해서 사용해 볼 수 있다. 칩셋 업체들도 AI 구동을 위한 전용 가속기를 탑재해 디바이스에서 SLM을 구동할 수 있도록 지원하고 있다. 실제 퀄컴의 스냅드래곤 8 엘리트는 컴퓨터에서 80억 개의 파라미터를 가진 SLM을 처리할 수 있다. 결국 온디바이스 AI는 속도와 프라이버시 측면의 이점을 무기로 제한적인 범위 내에서 유용한 기능들을 제공하고 있다. 완전한 거대 언어모델을 손안의 기기에 집어넣기는 아직 어렵지만 특정 용도에 최적화된 작은 모델들의 조합으로 클라우드 못지않은 사용자 경험을 제공하려는 시도가 계속되고 있다.

Mistral Samll3 (출처: Mistral)

AI 운용 모델 선택의 고려 사항

앞서 살펴본 바와 같이 클라우드 AI와 온디바이스 AI는 각각 장단점을 지닌다. 그런 AI의 구동 방식에 대한 선택에 있어 사용자 관점이 아닌 구축 개발 관점에서 유지보수와 에너지 효율성 문제 또한 중요한 고려 대상이다.

유지보수와 업데이트

AI 시스템의 업데이트 및 유지관리 방식에 있어 클라우드와 온디바이스 간에 큰 차이가 있다. 클라우드 기반 AI는 모델 업데이트나 버그 수정을 서버 측에서 일괄 처리할 수 있어 관리가 비교적 용이하다. 예를 들어, AI 모델에 보안 취약점이나 오류가 발견되었을 때 중앙 서버의 모델을 교체하면 즉시 모든 사용자가 개선된 버전을 이용할 수 있다. 반면, 온디바이스 AI는 각 기기에 배포된 모델을 개별적으로 업데이트해야 하므로 사용자가 업데이트를 적용하지 않으면 오래된 모델이 남거나, 구형 기기는 최신 모델을 지원하지 못하는 문제가 발생할 수 있다. 따라서 온디바이스 모델은 장기간에 걸친 버전 관리와 기기별 호환성을 고려해야 한다. 또한, 중앙 관리가 어렵기 때문에 디바이스 내에서 AI 모델이 학습 과정 중 예기치 않은 변화를 겪거나 편향된 데이터에 노출되는 경우 이를 감지하고 교정하기 어려울 수 있다. 이러한 이유로 많은 온디바이스 AI 솔루션은 주기적으로 진단 정보를 서버로 전송하여 중앙에서 품질을 모니터링하거나 필요시 원격으로 구성을 변경하는 방식을 채택한다. 즉, 완전히 고립시키기보다 일부 서버 통신을 병행해 유지보수를 수행한다. 결과적으로, 운영의 편의성 면에서는 클라우드 AI가 효율적이지만, 사용자 맞춤형 최적화와 개인정보 보호 면에서는 온디바이스 AI가 유리하다. 서비스 제공자는 두 방식을 적절히 조합해 업데이트 전략을 수립해야 한다.

에너지 효율성과 환경 영향

AI 모델을 어디서 운영하느냐는 에너지 소비와 탄소 배출 측면에서도 차이가 있다. 대규모 데이터센터는 수만 대의 서버를 효율적으로 운영하도록 설계되어 전력 사용 효율을 최적화하는 것이 중요한 숙제다. 게다가 데이터센터는 태양광, 풍력 같은 재생에너지 사용 비율을 높이려는 노력을 끊임없이 연구한다. 반면 개별 스마트폰은 작은 배터리로 동작하면서 반복되는 충·방전 과정과 사용자의 과도한 AI 사용 대비 효율적 운용에 대한 지속적인 최적화가 상대적으로 미흡해 동일한 연산을 수행해도 클라우드가 온디바이스보다 탄소 배출이 적을 수 있기도 하다. 또, 반대로 분산된 엣지 디바이스의 활용이 에너지 효율을 높일 수 있는 사례도 있다. 예를 들어, 최신 스마트폰의 NPU를 사용해 이미지 생성 AI를 구동하는 것이 동일 작업을 클라우드 GPU로 실행하는 것보다 와트시(Wh)당 약 30배 이상의 이미지를 생성할 수 있다는 연구도 있다. 이는 클라우드 GPU가 고성능으로 네트워크와 쿨링 등 부수적인 에너지 소모가 과도하게 발생하는 반면, 모바일 NPU는 해당 작업에 특화되어 매우 효율적으로 계산을 수행하기 때문이다. 따라서 클라우드와 온디바이스 중 어느 쪽이 에너지 효율적인지는 용도와 상황에 따라 달라진다. 중앙 데이터센터는 규모의 경제와 청정에너지 사용을 통해 효율을 높일 수 있고, 엣지 디바이스는 불필요한 데이터 전송을 줄이고 전용 하드웨어로 특화 작업을 수행해 에너지 대비 성능을 높일 수 있다. 향후 탄소 배출을 줄이기 위해 중앙과 말단이 적재적소에 연산을 분담하여 전체 효율을 극대화하는 방향으로 발전할 것으로 예상된다. 그것이 하이브리드 AI다.

대안은 하이브리드 AI

즉, 서버와 클라이언트나 FM과 SLM으로 구분하는 이분법적 선택보다는 양측의 강점을 혼합된 형태인 하이브리드 모델로 나아가는 것이 최적의 대안이 될 것이다. 완전히 중앙 또는 완전히 로컬에 치우치기보다 각 방식의 강점을 살린 절충형 아키텍처를 구축해 최적의 성능과 사용자 경험을 달성하는 방향이다. 현대의 많은 AI 서비스는 이미 이러한 하이브리드 방식을 채택하고 있다. 예를 들어, 스마트폰 음성 비서의 경우 기기 내에서는 간단한 명령어(예: 깨우기)를 온디바이스 AI가 실시간으로 처리하고 복잡한 질문에 대해서는 인터넷을 통해 클라우드의 거대 모델이 답변을 생성해 기기로 전송한다. 애플의 시리는 가능하면 프라이버시와 관련된 작업은 아이폰 내에서 처리하고, 웹 검색이나 방대한 지식이 필요한 요청만 서버에 질의하는 형태로 운영된다. 또한, 애플은 프라이빗 클라우드 컴퓨팅 개념을 도입해 아이폰이 더 큰 모델의 지원이 필요할 때 클라우드와 익명화된 방식으로 통신하여 연산만 수행하고 결과를 받아오도록 설계하고 있다. 삼성 또한 온디바이스 AI와 클라우드 AI를 병행해 사진 갤러리 추천이나 음성 텍스트 변환(STT) 같은 작업은 기기 내에서 처리하고, 고품질 번역이나 복잡한 이미지 편집 등은 클라우드 서비스를 호출하는 식으로 운영 중이다. 마이크로소프트 역시 Windows에 Copilot을 도입해 로컬 PC의 작업 내용은 기기에서 처리하고, 자연어 기반의 종합적인 지원은 클라우드 GPT-4를 활용하는 방식으로 역할을 분담하고 있다. 이것이 하이브리드 AI가 작동하는 방식이다.

하이브리드 모델의 한 형태 (출처: 구글 제미나이 Imagen 3로 생성)

또한, 연합학습(Federated Learning)이라는 접근도 하이브리드 모델의 한 형태다. 이는 중앙 서버에 모든 훈련 데이터를 모으지 않고, 각 디바이스가 자신의 데이터를 이용해 로컬 모델을 학습한 후 변화분만을 서버에 전송하여 통합하는 방식이다. 예를 들어, 스마트폰 키보드 앱이 사용자의 타이핑 습관을 학습할 때 각 기기에서 모델을 미세조정한 후 그 결과만 모아 서버에서 통합 모델을 업데이트하는 식이다. 이를 통해 개별 사용자 데이터가 기기 밖으로 직접 유출되지 않으면서도 전체 모델 성능을 향상할 수 있다. 구글의 Gboard 키보드 등이 이미 일부 연합학습을 도입하고 있다.

앞으로 AI 컴퓨팅은 초거대 AI 모델(FM)과 디바이스 속 AI(SLM)가 공존하며 협력하는 구조가 일반화될 것이다. 이는 마치 인체의 두뇌(중앙)와 반사신경(말초)처럼 중요한 결정은 두뇌에서 처리하고 사소한 반응은 말초에서 처리하는 방식과 유사하다. 사용자가 즉각적인 처리가 필요한 경우에는 온디바이스 AI가, 방대한 지식과 복잡한 연산이 필요한 경우에는 클라우드 AI가 각각 최적의 역할을 수행하게 될 것이다. 결과적으로 IT 역사 속 서버↔클라이언트의 공생 발전은 AI 시대에도 이어지며 중앙의 FM과 엣지의 SLM이 각자의 역할을 분담하며 상호보완적으로 발전할 것으로 전망된다. 그 궁극적인 목표는 사용자가 어디서든 끊김 없이 지능적인 서비스를 이용할 수 있도록 하는 것이며 이를 위해 하이브리드 AI 아키텍처가 주요 방향으로 부상할 것이다.

▶   해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶   해당 콘텐츠는 사전 동의 없이 2차 가공 및 영리적인 이용을 금하고 있습니다.


이 글이 좋으셨다면 구독&좋아요

여러분의 “구독”과 “좋아요”는
저자에게 큰 힘이 됩니다.

subscribe

구독하기

subscribe

김지현
김지현

김지현 | 테크라이터

기술이 우리 일상과 사회에 어떤 변화를 만들고, 기업의 BM 혁신에 어떻게 활용할 수 있을지에 대한 관심과 연구를 하고 있습니다.

공유하기