Beschreibung der Beschaffung
Research Data Infrastructure (RDI) Phase 1 – 2019 (Umfang 3,104 Mio. brutto)
Hyperkonvergente Serversysteme für Ceph/OpenStack/kubernetes. Es dürfen keine Erkenntnisse vorliegen, dass die angebotene Hardware Probleme mit den aktuellen Versionen der einzusetzenden Software-Systeme OpenStack/Ceph/kubernetes hat.
Es wird nur Hardware beschafft. Es dürfen keine zusätzlichen bzw. zeitlich befristeten Software-Lizenzen zum zeitlich unbegrenzten Betrieb und Management der Hardware erforderlich sein. Notwendige oder empfohlene Firmware-Updates müssen auch nach Ende der Gewährleistung zeitlich unbegrenzt kostenfrei verfügbar sein.
Die Server werden an 5 Standorten (MS, BI, BN, PB, SI) aufgestellt und müssen dort autonom betreibbar sein.
Dual-Rail 100GE Netzwerk auf Basis ONIE Switches (10/40/100 GE) mit Cumulus Linux, geeignet für die Anbindung an die Campus-Backbones (je Switch 2 x 40GE LR, bzw. 10GE LR für Paderborn) der jeweiligen Standorte.
Gerätetyp hyperkonvergente Server (building block):
— Rack-Mount Server: Intel Xeon SP Cascade Lake (ausschließlich 2-Sockel Systeme) oder AMD Epyc ROME (neben bevorzugt 2-Sockelsystem auch 1-Sockelsystem mit Prozessor-SKU mit Core-Zahl >= 48 möglich) mit möglichst hoher Rechenleistung (Cores x Basistakt) für OpenStack,
— alle Speicherkanäle balanciert (d. h. mit identischer Speicherkapazität) bestückt,
— HDD mit SAS3 12Gbps 7,2k als JBOD; mindestens 12TB je HDD; kein SMR; kein Flash-Cache; hot-swappable; maximal 24 pro Server konfiguriert; Chassis sollte bevorzugt Ausbau auf 36 HDD ermöglichen,
— das Chassis des Server inkl. der HDDs (optional in externer HDD-JBOD-Enclosure) darf maximal 5 Höheneinheiten Rackspace je building block beanspruchen. Wird eine externe HDD-Enclosure geteilt von mehreren Servern genutzt, werden die Höheneinheiten anteilig dem building block zugerechnet. Im Fall geteilt genutzter HDD-JBOD-Enclosures dürfen die einzelnen HDDs nur jeweils von dem Server aus sichtbar sein, dem sie zugeordnet sind,
— die Chassis (Server wie auch HDD-JBOD-Enclosures) müssen dicht (d. h. ohne Abstände zueinander) in Racks einbaubar sein, ohne dass die thermische Stabilität beeinträchtigt ist,
— mindestens 6,5 % der HDD Kapazität muss als NVMe konfiguriert werden (DataCenter NVMe mit DWPD >= 3 und Enhanced Power Loss Data Protection; ein freier Slot zur Erweiterung der NVMe Kapazität mit NVMe gleichen Typs muss gegeben sein),
— 1 x Intel Optane P4800X 375GB 3D-XPoint NVMe,
— 1 x DualPort 100GE Netzadapter,
— Systemdatenträger: Mindestens 64 GB, darf keinen 3.5" HDD-Slot belegen (also z. B. M.2 oder zusätzlicher 2.5"-Slot),
— Remote-Management: Virtuelle Konsole (bevorzugt HTML5), Remote Power Control,
— Dedizierter Netzwerk-Port für Remote-Management,
— 1 x 1Gbit Ethernet-Port für Installation (PXE-Boot) und Administration,
— Redundant (N+1) Power Supplys.
Die Server für einen Standort müssen komplett identisch konfiguriert sein.
Um die Konfiguration entsprechend der Kapazitätsvorgaben zu optimieren können für die 5 Standorte verschiedene CPU SKUs, RAM-Ausstattungen und NVMe-Kapazitäten (Zahl NVMe je Server) konfiguriert werden. Die Chassis, eingesetzten Prozessor-Typen (Intel Cascade Lake oder AMD Epyc ROME), sowie HDD und NVMe Typen müssen jedoch an allen Standorten identisch sein. Insgesamt wird auch standortübergreifend eine möglichst hohe Homogenität der Hardware-Konfiguration (max. 2 verschiedene CPU SKUs, ...) erwartet.