Rockport Networks, 300Gbps 스위치리스 패브릭 출시, 396 공개
홈페이지홈페이지 > 소식 > Rockport Networks, 300Gbps 스위치리스 패브릭 출시, 396 공개

Rockport Networks, 300Gbps 스위치리스 패브릭 출시, 396 공개

Sep 01, 2023

By 티파니 트레이더

2021년 10월 27일

Rockport Networks는 이번 주 고성능 컴퓨팅 및 고급 AI 시장의 요구 사항에 초점을 맞춘 300Gbps 스위치리스 네트워킹 아키텍처를 출시하면서 은밀하게 등장했습니다. 초기 고객으로는 Frontera 시스템의 일부에 네트워킹 기술을 설치한 TACC(Texas Advanced Computing Center)와 네트워킹 장비를 사용하고 있는 DiRAC/Durham University가 있습니다. 오하이오 주립대의 고성능 네트워킹 그룹도 Rockport와 협력하여 표준 지원에 대한 전문 지식을 제공합니다.

Rockport의 분산 스위칭 기능은 네트워크 카드 전체에서 실행되는 네트워크 운영 체제인 특허받은 rNOS 소프트웨어를 통해 구현됩니다. 소프트웨어는 서버 리소스를 사용하지 않으며 고성능 이더넷 NIC를 보는 것 외에는 서버에 보이지 않습니다. 네트워크 기능은 수동 케이블을 통해 서로 직접 연결된 각 노드로 분산됩니다. 분산 제어 평면과 분산 라우팅 평면이 있지만 Rockport에 따르면 노드는 자체 검색, 자체 구성 및 자체 치유 기능을 갖추고 있습니다. 소프트웨어는 혼잡과 대기 시간을 최소화하기 위해 네트워크를 통해 최적의 경로를 결정하는 동시에 패킷을 더 작은 조각(Rockport에서는 FLIT라고 부름)으로 나누어 우선 순위가 높은 메시지가 대량 데이터로 인해 차단되지 않도록 합니다.

rNOS 외에도 Rockport Networks 솔루션은 세 부분으로 구성됩니다.

Rockport의 최고 기술 책임자인 Matt Williams에 따르면 현재 출시되고 있는 제품은 경로 다양성이 높은 6D 토러스의 고급 버전을 기반으로 한다고 합니다. 현재 최대 1,500개의 노드를 지원하지만 이 아키텍처는 Dragonfly와 같은 토폴로지를 활용하여 100,000개 이상의 노드까지 확장할 수 있도록 설계되었다고 CTO는 말했습니다.

솔루션을 테스트하고 검증하기 위해 Rockport Networks는 오스틴에 있는 TACC(Texas Advanced Computing Center)와 약 1년 동안 협력해 왔습니다. 새로운 Rockport Center of Excellence의 후원으로 TACC는 최근 Frontera 슈퍼컴퓨터의 396개 노드에 Rockport 네트워킹을 설치했습니다. (상위 500대 목록에서 10위를 차지한 ~8,000노드 Dell 시스템은 Nvidia-Mellanox HDR InfiniBand를 기본 상호 연결로 사용합니다.) Rockport에 연결된 노드는 전염병 관련 양자 컴퓨팅 연구를 지원하는 생산 과학에 활용되고 있습니다. 파괴적인 기상 현상 및 기타 대규모 재해를 해결하는 연구 및 긴급 대응 컴퓨팅.

"TACC는 Rockport Center of Excellence가 된 것을 매우 기쁘게 생각합니다. 우리는 대규모 성능을 유지하기 위해 고대역폭, 저지연 통신에 의존하는 다양한 고급 컴퓨팅 워크로드를 실행합니다."라고 TACC 이사이자 연구 담당 부사장인 Dan Stanzione는 말했습니다. UT-오스틴에서. "Rockport의 스위치 없는 네트워크 설계와 같은 혁신적인 신기술을 사용하게 되어 기쁘게 생각합니다.

"우리 팀은 혼잡 및 대기 시간 제어 측면에서 유망한 초기 결과를 보고 있습니다. 설치 및 관리의 단순성에 깊은 인상을 받았습니다. 새롭고 더 큰 워크로드에 대한 테스트를 계속하고 Rockport Switchless Network를 우리 회사로 더욱 확장할 수 있기를 기대합니다. 데이터센터"라고 덧붙였다.

Williams는 TACC의 Rockport 설치를 완료하는 데 1주일 반밖에 걸리지 않았다고 보고했습니다. "말 그대로 2단계 과정입니다."라고 그는 말했습니다. "카드를 연결하고 케이블을 연결하세요."

Williams는 HPCwire에 고객이 InfiniBand에 비해 평균 28%의 개선을 경험하고 있으며, 부하가 걸린 상태에서 애플리케이션을 실행하면서 규모에 따른 엔드투엔드 대기 시간이 3배 감소했다고 말했습니다. "부하가 있는 경우 전반적인 성능이 더 좋고 지속적으로 더 나은 워크로드 완료 시간을 제공합니다. 모든 워크로드가 다르기 때문에 항상 28%가 표시되는 것은 아닙니다. 때로는 워크로드의 민감도에 따라 더 높거나 낮을 수도 있습니다. 네트워크 상태에 따라 다르지만 평균적으로 약 28% 정도를 보고 있습니다."

그는 위의 네 가지 테스트에서 Rockport 솔루션을 100Gbps InfiniBand 네트워킹과 비교했지만 200Gbps InfiniBand에 대한 내부 테스트에서는 "매우 유사한 결과"가 나타나고 있다고 밝혔습니다. 상위에 나열된 HPC 워크로드는 움직이는 메시 유체 역학 코드를 사용합니다.