심심해서 잠깐...
on
글쎄, NVIDIA가 돈이 많다 보니 세상의 모든 signal processing을 CUDA로 제패하려고 드는 것 같다. 그들 자신도 이거 한다 저거 한다 하면서 사람 모아다 놓고 접고 하던 걸 내가 꽤나 봐왔다. Aerial(5G vRAN), Holoscan, Sionna, CUDA-Q, Clara의 일부 라인까지 — 한참 밀다가 조용히 축소되거나 방향을 트는 일이 분명 있었다. 그런데 지금은 워낙 돈이 많아져서 생태계를 쥐고 흔들 능력이 넘쳐난다. 거기에 고객(데이터센터/ISP) 입장에서는 장비 자체가 비싸다 보니, 한번 들여놓으면 오래 쓰고 싶어 한다. “이 귀한 자원, 괜히 새 장비 만들지 말고 재활용 잘 시키면 되잖아”라는 압박까지 자연스럽게 따라붙을 것 같다.
다만 한 가지는 좀 다르게 보게 됐다. NVIDIA가 정말 노리는 건 signal processing 시장 자체가 아니라, workload가 GPU로 흘러들어오게 하는 모든 경로에 가깝다는 점이다. RAN만 봐도 전통적으로 ASIC/FPGA가 지배하던 영역이고, 여기서 CUDA가 가격이나 전력 효율로 이긴 적은 거의 없다. 그럼에도 미는 이유는 “AI-RAN” 내러티브 — 같은 GPU에서 RAN도 돌리고 AI inference도 돌리니 utilization이 올라간다 — 로 데이터센터 GPU의 추가 수요처를 만드는 것이다. 시장을 먹는 게 목적이 아니라 GPU 가동률을 정당화할 use case를 깔아두는 거다.
그래서 “한번 들여놨으니 재활용해라”라는 압박은 양날의 검이다. Telco가 진짜 원하는 건 결정론적 latency와 전력 효율인데, GPU는 둘 다 ASIC 대비 약점이다. Aerial이 몇 년째 PoC 단계를 못 벗어나는 이유가 거기 있다.
진짜 무서운 건 따로 있다고 본다. 약한 영역을 직접 이기려 들기보다, 생태계 lock-in으로 대안 진영의 SW 인력풀을 말려버리는 전략. CUDA가 HPC/ML에서 한 일이 정확히 그거였다. Sionna 같은 시뮬레이터를 오픈소스로 뿌리는 것도 같은 맥락이다. 다음 세대 통신 엔지니어가 MATLAB이 아니라 PyTorch+Sionna로 학위를 받게 만들면, 10년 뒤 산업은 자연스럽게 GPU-friendly한 알고리즘을 고르게 된다.
결국 휘두르는 레버는 chip이 아니라 developer mindshare인 셈이다.