AIRI - AI infrastruktur som tjänst

CGit erbjuder en specialiserad IT-infrastruktur för företag som vill utveckla lösningar, tjänster, produkter eller forskning som baseras på någon form av Deep Learning.


Vad är så speciellt med AIRI?

Vår infrastruktur baseras på en referensarkitektur som heter AIRI (AI Ready Infrastructure) framtagen av NVIDIA, PureStorage samt Arista Networks. Fördelen med en referensarkitektur är att det kombinerade Pure Storage, NVIDIA- och Arista-systemet är specificerat och testat för att fungera på ett högpresterande och kompatibelt sätt med NVIDIA-maskininlärningsmjukvara.

Snabbt

AIRI stöder Deep Learning med multipla noder “out of the box” och levererar prestanda linjärt och förutsägbart. AIRI bygger på toppmoderna teknologier som exempelvis RDMA över 100Gb Ethernet.

Enkelt

Kom igång på några få timmar, inte veckor. NVIDIA GPU Cloud Deep Learning Stack levererar optimerade frameworks omedelbart medans AIRI Scale-out Training Kit möjliggör en snabb start på multipla DGX-1.

Framtidssäker

AIRI är den mest avancerade och moderna plattformen för utveckling av AI, men AIRI erbjuder också den enklaste plattormen att skala och växa i. Addera GPU:er för snabbare träning eller addera lagring för större data-sets. AIRI växer med dina behov.

 

Anmäl dig här för PoC
 

Ansök här

 

AIRI - Unikt i Sverige

Detta är det enda systemet i Sverige av sin sort som finns som tjänst. Det betyder att er data aldrig behöver lämna landet. Dessutom har vi lokal kompetens redo att hjälpa er att komma igång med er AI-utveckling.

Vi är ett svenskt företag med datacenters i Sverige och därav inte bundna av Cloud Act. Vi följer Svenska Lagar och regler såväl som EU’s datadirektiv (GDPR).

Vilka delar består tjänsten av?

NVIDIA DGX-1

Nvidia DGX-1 med Tesla V100 är ett integrerat system för deep learning. DGX-1 har 8 st NVIDIA Tesla V100 GPU acceleratorer som kopplas samman genom NVIDIA NVLink, i ett ”hybrid cube-mesh” nätverk. Tillsammans med dubbel-socket Intel Xeon CPU:er och fyra 100GB infiniband nätverkskort ger DGX-1 oöverträffad prestanda för deep-learning träning. Dessutom är DGX-1 systemprogramvara, kraftfulla bibiliotek och NVLink-nätverk optimerade för att kunna skala upp deep learning över alla åtta Tesla V100 GPUer och på så sätt ger det er en flexibel plattform med maximal prestanda. Perfekt för utveckling och implementering av deep learning i både produktions-och forskningssammanhang.

DGX med senaste generationens V100 GPU:er är upp till 3.1x snabbare än den tidigare generationen som baserades på Telsa P100.

Den högre produktiviteten och prestandan beror på att DGX-1 är ett integrerat system med en komplett optimerad mjukvaruplattform. Allt körklart från start!

DGX-1 MED TESLA P100 VS TESLA V100

P100V100
TFLOPS1701 000
CUDA Cores28 672 40 960
Tensor Cores--5 120
NVLink vs PCIe Speed-up5x10x
Deep Learning Training Speed-up 1x3x

 

Anmäl dig här för PoC
 

Ansök här

 

Pure Storage FlashBlade

”The world’s most valuable resource is no longer oil, but data”. Data är den mest värdefulla tillgången i en organisation idag. Men långsamma och komplexa, äldre lagringssystem, håller ofta data tillbaka från att användas.

Flashblade, från Pure Storage, är branschens mest avancerade fil- och objektlagringsplattform någonsin

Varför Flashblade

En centraliserad hub i en deep learning arkitektur ökar produktiviteten för de som arbetar med datan och gör skalning och drift enklare och mer agilt för arkitekten/IT. FlashBlade gör specifikt ett AI-system enklare att bygga, drifta och växa, av följande anledningar:

  • Prestanda: Med över 15GB/s ”random read” bandbredd och upp till 75GB/s totalt så är FlashBlade redo att hantera kraven från ett AI-workflow utan problem.
  • Små filer: FlashBlade kan hantera att ”randomly” läsa små filer (50KB) i 10GB/s från ett enda chassi (50GB/s med 75 blad). Det betyder att ingen extra kraft behövs för att aggregera data till större ”lagringsvänliga” filer.
  • Skalbarhet: Börja med ett litet system och addera ett blad i taget för att öka prestandan och kapaciteten beroende på om dataseten ökar eller kraven på ”throughput”.
  • Native object support (S3): Input data kan sparas antingen som filer eller object.
  • Enkel administration: Inget behov av ”tuning”, inget behov av provisionering.
  • Non-disrupitve Upgrad everything: Mjukvaru-uppdateringar och hårdvaruexpansion kan göras när som helst utan avbrott. Tillochmed under produktion.
  • Enkelt Management: Med Pure1, en molntjänst från Pure, kan ni övervaka FlashBladen från vilken device som helst och få proaktiv support och fixar levererat innan de påverkar driften.
  • Byggd för framtiden: Byggd från grunden för flash och för att dra nytta av nya generationen NAND-teknik.

Förmågan att hantera små filer är avgörande eftersom många typer av input, inklusive text, ljud eller bilder, lagras som små filer. Om lagringen inte hanterar små filer väl krävs ett extra steg för att förprocessa och gruppera småfilerna till större filer.

De flesta ”legacy” systemen är inte byggda för att leverera prestanda för småfiler.

Lagringssystem som använder spinnande disk med SSD som en chace-nivå saknar nödvändig prestanda. SSD-cachar ger endast hög prestanda för en liten delmängd av data och kommer att vara ineffektivt när det gäller att dölja fördröjningen som de spinnande diskarna ger.

I slutändan betyder prestandan hos FlashBlade att en utvecklare, eller någon som arbetar med data-vetenskap, inte behöver vänta utan hen kan snabbt gå mellan faser i arbetet utan att slösa tid på att vänta på kopiering av data. FlashBlade kan också utföra flera olika experiment på samma data samtidigt.

Arista Networks

Arista Networks är ett av de snabbast växande bolagen i världen och placerade sig på plats 10 över Fortune 100’s lista över ”Fastest growing Companies 2017” (Amazon är på nummer 9). Denna fantastiska resa har man åstadkommit genom att erbjuda överlägsen teknik och service. Det är även därför man leder Gartners ”Magic Quadrant for datacenters” för 3e året i rad.

Några av fördelarna med en Arista lösning

  • Djupa buffrar
  • Ingen nedtid vid uppgraderingar
  • Öppen standard – oerhört lätt att integrera API:er mot Arista. Aristas operativsystem, EOS, bygger på en omodifierad Linux kernel.

Vad kostar det?

Vi ser till att effektivisera och spara tid och pengar i ert projekt.

Hur gör jag för att få tillgång till infrastrukturen?

Ta kontakt med oss på 031-762 02 40 eller maila på ai@cgit.se så hjälper vi dig att komma igång.Vad kostar det?

Vår tjänst kan konkurrera prismässigt med alla jämförbara lösningar på marknaden oavsett storlek på leverantör. Vi har dessutom inte några kostnader för dataöverföring. Dessutom ser vi till att spara tid genom att bistå med expertkonsultation, något som kommer korta ner tiden som ni behöver ha tillgång till systemet.

 

Anmäl dig här för PoC
 

Ansök här

 

Kontakta Christian

Ta gärna direkt kontakt med Christian. Hans främsta expertis är avancerade datacenterlösningar och han kan hjälpa er att hitta rätt produkter, tjänster och nivåer som passar just era behov.