오늘날 기업은 잠재력을 끌어내기 어려운 데이터를 어떻게 활용해야 고객의 비즈니스 목표나 매출 신장에 도움을 줄 수 있을지를 끊임없이 고민한다. 이에 따라 많은 기업이 오픈소스 솔루션을 채택하고 컴포저블 컴퓨팅, 네트워킹 및 스토리지 리소스를 통합한 개방형 아키텍처를 계속해서 실험하고 또 완성시켜 나가고 있다.
2018년 IDC가 진행한 테크스케이프(TechScape) 연구에 따르면, 최근 떠오르는 대부분의 주요 기술은 오픈소스로 이뤄져 있다. 오픈소스는 누구나 쉽게 검토하거나 개선점을 제안할 수 있도록 소스코드가 공개되어 있어 감사나 개선이 용이하다. 또한, 오픈소스 개발은 기업이 문제를 해결하기 위한 공동의 R&D 비용 분배가 가능하다. 게다가 개방적 환경에서도 보안이 향상되어 더 많은 개발자가 동일한 오픈소스 코드를 사용해 더 쉽게 버그를 발견할 수 있다.
하지만 오픈소스도 완벽하지는 않다. 멀티 클라우드의 등장, 데이터 플로우, 데이터 액세스, 관찰 가능성, 보안 등이 주요 해결과제이다. 이는 하드웨어로 보완할 수 있다. 많은 기업이 멀티 클라우드를 채택하고 있는 가운데, 스케일 아웃 스토리지가 가능한 아파치 하둡이나 세프(Ceph) 같은 오픈소스 프로젝트는 컴퓨팅과 스토리지를 활용해 프라이빗 클라우드를 강화하는 역할을 한다.
하드웨어는 워크로드에 최적화된 클러스터로 프라이빗 클라우드가 확장 가능한 소프트웨어 환경을 갖추도록 지원한다. 예를 들어, 낮은 지연시간이 필요한 앱에는 SSD를 탑재한 올플래시 어레이를 사용하고, 프라이빗 클라우드에 대용량 스토리지가 필요한 경우 하드웨어 아키텍처로 개별 빌딩블록을 재구성할 수도 있다.
2025년 데이터스피어가 175제타바이트(ZB)에 이를 것으로 전망되는 가운데, 데이터를 저장하고 처리하는 데이터 플로우가 가장 큰 화두로 떠오르고 있다. 오픈소스 소프트웨어는 인프라 개발자가 앱에 최적화된 솔루션을 개발할 수 있는 토대를 제공한다. 어떤 빌딩블록에 어떤 비율로 원하는 데이터를 주입하고, 어떤 도구를 분석에 사용해야 하는지는 컴퓨팅과 스토리지 하드웨어를 어떻게 조합할 것인지에 달려있다.
데이터의 양이 기하급수적으로 증가함에 따라 데이터 접근성 개선이 중요한 과제로 떠올랐다. 높은 기록 밀도를 제공하기 위해 디스크의 용량이 증가함과 동시에 전체 비용을 줄이면서 빠른 데이터 입출력에 대한 필요도 높아졌다. 하드웨어 부문에서는 낸드 혁신을 통해 동일한 지연시간과 대역폭을 유지하면서 전체 비용을 줄이기 위한 연구가 이뤄지고 있으며, 듀얼 액추에이터 같은 기술은 대용량 장치에 더 높은 입출력처리속도(IOPS)를 제공한다.
한편, 소프트웨어와 하드웨어를 통합하기 위해서는 시스템에 대한 많은 정보를 습득할 수 있는 관찰 가능성이 중요하다. 소프트웨어의 메가 트렌드는 멀티 클라우드 인프라를 자율적으로 조정하고 관리하는 것이다. 이때, 인공지능용 손쉬운 툴을 제작해 수동 개입이나 불규칙성을 줄이는 등 하드웨어를 통해 원격 데이터 측정의 관찰 가능성을 향상시킬 수 있다.
유럽연합 개인정보보호법(GDPR)이나 캘리포니아 소비자개인정보보호법(California Consumer Privacy Act) 같은 규정이 확립됨에 따라 데이터 출처, 이동, 컴퓨팅, 저장 등에 대한 보다 철저한 보안이 요구되고 있다. 이러한 트렌드는 소스의 개방성이 신뢰도를 향상시켜 오픈소스 솔루션에 대한 선호도를 높이는데, 하드웨어의 측면에서도 RISC-V와 같이 전자제품을 위한 저비용, 저전력, 높은 보안에 중점을 둔 공개 지침세트를 개발해 보안 문제를 개선할 수 있다.
따라서, 멀티 클라우드, 데이터 플로우, 데이터 액세스, 관찰 가능성, 보안 등 직면한 과제가 무엇이든 하드웨어는 항상 소프트웨어의 요구를 반영할 수 있어야 한다. 데이터를 다루는 비즈니스 환경에서는 항상 하드웨어와 소프트웨어가 함께 보조를 맞춰야 최적의 결과를 낼 수 있기 때문이다. 오픈소스 시대 하드웨어 선택이 중요한 이유다.