Intel, AMD e NVIDIA alla guerra per le schede grafiche ad alte prestazioni

23 Agosto 2008 · Archiviato in Approfondimenti, Hardware & Periferiche 

Approfondimenti - Una lente impietosa puntata sui temi caldi, retrospettive appassionate e dettagliate, riflessioni oltre le apparenze Estate, tempo di riposo per i popoli più vacanzieri ma anche di grandi preparativi da parte delle società produttrici di hardware videoludico per PC, che affilano le armi e presentano innovazioni in attesa di giocarsi il portafogli degli utenti durante l’autunno incipiente, le vacanze natalizie e ancora oltre. Il futuro del settore, infatti, prevede sostanziose novità spalmate su un tempo relativamente lungo, con l’entrata nella contesa di un nuovo protagonista e scenari di evoluzione tecnologica senza precedenti.

Da tempo uniche produttrici di soluzioni discrete per l’accelerazione della grafica 3D in tempo reale, AMD e NVIDIA sono più agguerrite che mai nello spingere i limiti del silicio, delle performance e del design del proprie GPU oltre quanto realizzato solo poco tempo prima. Tra 18 mesi la torta dovranno dividersela con Intel, che contrasterà i ben noti marchi Radeon e GeForce con la sua nuova architettura multi-core basata sullo storico set di istruzioni x86/IA. Di seguito vengono segnalate le novità e le notizie recenti riguardanti le tre summenzionate corporation in relazione al videogaming su PC.

AMD alla ricerca di riscatto

Dopo aver inglobato ATI nel 2006, la storica rivale di Intel nel campo dei microprocessori continua ad attutire il contraccolpo di una delle operazioni di fusione più problematiche del mercato IT degli ultimi anni: i risultati finanziari del secondo trimestre dell’anno sono in rosso, così come quelli dei sei trimestri precedenti per una perdita complessiva di circa 1,2 miliardi di dollari.

L’attuale politica commerciale particolarmente aggressiva, basata sull’introduzione di modelli di schede grafiche con buone prestazioni a prezzi interessanti, dovrebbe sul lungo periodo far ritornare i conti in attivo. Nel mentre, AMD-ATI dimostra di non voler rinunciare alla mera contesa tecnologica con NVIDIA, che in questi anni di transizione per il nuovo conglomerato industriale ha fatto sostanzialmente terra bruciata conquistando fette di mercato e imponendo una leadership prestazionale ampiamente riconosciuta.

E’ in funzione di tale volontà di rivalsa che va letto l’annuncio che ha accompagnato il lancio della scheda ATI Radeon HD 4870 X2, che la società di Sunnyvale ha prontamente definitola scheda grafica più veloce al mondo“. Basata sull’architettura RV770, HD 4870 X2 accoglie sulla stessa PCB due GPU che lavorano in parallelo con clock di 750 MHz e 800 stream processor per unità, assieme a 2 Gigabyte di RAM di tipo GDDR5 a 1800 MHz per una banda passante di 230 Gigabyte il tutto su porta di interconnessione PCI Express 2.0. Pieno supporto alle librerie DirectX 10.1 e shader unificati in versione 4.1 per una potenza computazionale dichiarata di 2,4 Teraflop, un pixel fill rate di 24 Gigapixel al secondo e un texture rate di 60 Gigatexel/sec.

ATI Radeon HD 4870 X2

Il risultato pratico, stando ai test prestazionali, è che la scheda è in grado di dare la polvere alla GeForce GTX 280 alle risoluzioni più alte, arrivando ad essere più veloce del 35% a 1920×1200 nel sempre esoso di risorse Crysis. Considerando il segmento enthusiast a cui il prodotto si rivolge, il prezzo di 549 dollari è forse il dettaglio meno significativo da valutare per un tale mostro di potenza.

NVIDIA insegue la fisica e il ray-tracing in tempo reale

Per nulla impressionata dalle performance della concorrente, NVIDIA risponde alla sfida di AMD mettendo in campo soluzioni tecnologiche che potrebbero, nel corso dei prossimi mesi e anni, cambiare radicalmente il mondo dei videogame e della grafica in tempo reale su PC. Le novità della società californiana si chiamano PhysX, CUDA e ray tracing interattivo, e rappresentano le principali sfide che i produttori si troveranno ad affrontare in un futuro oramai dietro le porte.

PhysX è l’engine middleware (sviluppato originariamente da Ageia) per la gestione diretta delle caratteristiche fisiche delle scene 3D da parte della GPU, una tecnologia che promette di sgravare ulteriormente il lavoro del processore centrale e restituire su schermo una grafica molto più complessa e coerente. Ageia aveva inizialmente pensato a PhysX come a una soluzione basata sull’hardware, ma NVIDIA l’ha trasformata in un’estensione sfruttabile in software grazie a CUDA (Compute Unified Device Architecture), un tool di sviluppo in grado di trasformare le potenti GPU GeForce in motori di calcolo “general purpose”, non necessariamente dipendenti da funzionalità grafiche e utilizzabili in pratica come processori aggiuntivi a quello centrale per applicazioni di calcolo distribuito quali Folding@home o SETI@home.

NVIDIA ha recentemente abilitato sia PhysX che CUDA sulle schede GeForce serie 8, 9 e 200 attraverso la distribuzione del pacchetto gratuito GeForce Power Pack. A dimostrare le potenzialità delle nuove tecnologie è il filmato che segue, registrato partendo da un tech demo su scheda GeForce 8800 GTS, driver Forceware 177.83 e PhysX 08.08.01.

Alla manifestazione SIGGRAPH 2008 NVIDIA ha poi mostrato all’opera quello che potrebbe rappresentare il futuro del videogaming di qui a un anno, vale a dire grafica in ray tracing in tempo reale, interattiva e completamente gestita dalla GPU. Una sorta di Santo Graal del 3D, quello del ray tracing, che permette di rappresentare su schermo scene enormemente particolareggiate e realistiche (basandosi il rendering sul calcolo preciso delle fonti luminose e le conseguenti sfumature di illuminazione sugli oggetti) con colori vibranti, ombre, riflessioni e rifrazioni perfette e più in generare un senso di “vero” che la pur ricca componente visiva degli attuali videogame su PC non sarà mai in grado di restituire.

Usando un sistema Quadro Plex 2100 D4 Visual Computing System, equipaggiato con quattro GPU di nuova generazione della serie Quadro (in sostanza una GeForce pensata per applicazioni e rendering professionali), NVIDIA ha messo in mostra il demo di un’autovettura hi-tech composto da 2 milioni di poligoni, che assieme al rendering in ray tracing è stato capace di girare, dicono le cronache dallo show, in alta definizione (1920×1080) a 30 frame al secondo. Il vendor avrebbe dunque battuto sul tempo Intel, che da tempo spinge l’acceleratore sul fronte del realismo del rendering e cavalca il ray tracing in tempo reale (contro l’attuale metodo di rasterizzazione che visualizza i pixel ma non prevede alcun calcolo degli effetti delle fonti luminose) come applicazione privilegiata della supposta iper-potenza della nuova piattaforma Larrabee.

NVIDIA ray tracing tech demo (screenshot 1)

NVIDIA ray tracing tech demo (screenshot 2)

Intel: il Visual Computing non è solo chiacchiere e distintivo

Larrabee si chiama appunto la novità che il chipmaker ha in serbo per il mercato, teoricamente in grado di scompaginare l’attuale duopolio AMD/ATI-NVIDIA, aumentare la scelta per l’utente e contribuire con la concorrenza a far abbassare i prezzi dei dispositivi PCIe. Che cosa sia Larrabee è presto detto: Intel ha preso il design dei Pentium P54C (si, esattamente i primi processori Pentium datati ottobre 1994!), lo ha opportunamente rielaborato e aggiornato e ne ha fatto la base per una GPU con un numero di core aumentabile a piacere (10, 32, 48, …) che, essendo appunto basata sullo storico set di istruzioni x86 che ancora oggi sopravvive nei processori Core più avanzati, può essere impiegata indistintamente come periferica di calcolo standard o scheda grafica discreta ad altissime prestazioni.

Di Larrabee si parla oramai da tempo, e l’Intel Developer Forum (IDF) che si è tenuto a San Francisco tra il 19 e il 21 agosto è stata l’ennesima occasione per propagandare la piattaforma come l’inizio di una nuova era, per il personal computing in generale e la grafica 3D in particolare. Presumibilmente la tecnologia dovrebbe davvero rappresentare qualcosa di nuovo nel settore informatico, potenzialmente in grado di fornire una capacità di calcolo oltre le più rosee aspettative e possibilità di qualsiasi processore Quad-Core e scheda GeForce o Radeon, e per di più sfruttabile con una facilità senza precedenti considerando la strettissima parentela con le tradizionali CPU marcate Intel.

Intel Larrabee slide

Ma il chipmaker continua a dimostrarsi avaro di informazioni per quello che è evidentemente il progetto su cui più ha lavorato e sta lavorando in questi anni. L’unico dato concreto a disposizione parla di un debutto commerciale previsto per il 2009-2010. Se in futuro Intel sarà davvero in grado di far perdere il lavoro a NVIDIA e AMD con questa sorta di ibrido tra CPU e GPU, dunque, è un quesito che necessiterà ancora un bel pò di tempo per essere risolto.

Condividi questo articolo!
  • OKNOtizie
  • Facebook
  • Diggita
  • ZicZac
  • Wikio Italia
  • StumbleUpon
  • Technorati

Articoli correlati

Commenti

3 Risposte a “Intel, AMD e NVIDIA alla guerra per le schede grafiche ad alte prestazioni”

  1. Engelium il 24 Agosto 2008 17:41

    Beh, storicamente il panorama che ci viene proposto per il prossimo futuro dalle grandi della grafica è sempre risultato come un qualcosa di estremamente sconvolgente ed innovativo ai nostri occhi, ma, come ho già detto altre volte, personalmente rimango dell’idea che si tratta sempre di puro marketing e null’altro, con incrementi si prestazionali (e ci mancherebbe pure) tra una generazione e l’altra, ma mai mi pare di essere stato messo di fronte a quella rivoluzione che ha dato un taglio netto all’immediato passato ed uno schiaffo morale degno di nota ai diretti concorrenti.

    Tanta teoria ma “pochi” (mai virgolette ebbero tanto peso) risultati pratici insomma ;)


    Browser Opera 9.52 Opera 9.52 sull'O.S. Windows XP Windows XP
    Opera/9.52 (Windows NT 5.1; U; en)
  2. Sir Arthur, King of Ghouls'n Ghosts il 24 Agosto 2008 17:49

    Ehilà ben ritrovato :-D

    Beh si, l’evoluzione in genere è lineare anche se viene presentata con propaganda degna di 1984 di Orwell…

    Però le due novità degli ultimi tempi, vale a dire il ray tracing in tempo reale e stò misterioso Larrabee di Intel, potrebbero fare una differenza per una volta piuttosto marcata.

    Io mi ricordo che la grafica in ray tracing, nel 1992 o giù di lì, significava aspettare qualche giorno per vedere il risultato di un rendering di una scena con POVray su processore I386, e il pensiero che ora il tutto sia in tempo reale mi mette un pò i brividi: il ray-tracing hollywood lo usa per realizzare blockbuster del calibro di Transformers e simili….


    Browser Firefox 2.0.0.16 Firefox 2.0.0.16 sull'O.S. Windows XP Windows XP
    Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.16) Gecko/20080702 Firefox/2.0.0.16
  3. Engelium il 24 Agosto 2008 19:40

    Ogni tanto riesco ad uscire dal limbo estivo internet-less :D

    Nuovi engine ed approcci vari a parte, per il ray-tracing bisogna pur sempre tener conto anche del quando il tutto sarà comodamente impacchettato in una scheda grafica reale ed accessibile ai comuni mortali… del resto anche Intel non si sbilancia troppo con un 2009-2010 …

    ancora una volta staremo a vedere come si svilupperà il tutto…

    Ciao


    Browser Opera 9.52 Opera 9.52 sull'O.S. Windows XP Windows XP
    Opera/9.52 (Windows NT 5.1; U; en)

Lascia una risposta