Speciale XFX GeForce 8800 GTX

La migliore scheda video sul mercato?

Speciale XFX GeForce 8800 GTX
INFORMAZIONI GIOCO
Articolo a cura di

La scheda video è la componente che fa la differenza fra un semplice PC ed una macchina in grado di prestarsi al Gaming, e deve essere scelta con cura.
Molti utenti si affidano a commercianti e presunti specialisti nel settore, chiedendo semplicemente se il computer che stanno per acquistare sarà in grado di far girare o meno qualche titolo di rilievo.
Niente di più sbagliato: nei casi più spiacevoli, qualcuno si ritrova con macchine in grado a malapena di far funzionare i videogiochi trovati in regalo con le merendine, mentre altri più fortunati vedono titoli meno recenti scorrere via fluidi ma si trovano tagliati fuori da quelli di ultimo grido.
Per tanto, prima di mettere mano al portafogli, occorre informarsi accuratamente, casomai perdendo qualche nottata fra guide e forum e cercando di capire qual'è la migliore scheda che si possa adattare alle nostre esigenze e soprattutto al desktop che già possediamo.
Non conta tanto la potenza bruta e le frequenze: sono numero indicativi, ma non determinanti.
Occorre innanzitutto capire come la scheda lavora, perché è diversa da altri modelli e soprattutto se il gioco vale economicamente la candela.
Cercheremo quindi di entrare dentro la nuova architettura targata Nvidia, conosciuta con la sigla G80, su cui si basa la nuova serie del colosso californiano: la tanto acclamata serie 8.
Grazie ad XFX abbiamo messo sotto torchio una poderosa NVIDIA GeForce 8800 GTX 768MB DDR3, ovvero una delle scheda più potenti disponibili attualmente sul mercato.
Non siete curiosi di sapere cosa ci ha raccontato?

Shader, questo sconosciuto

Come sempre, cercheremo di semplificare il discorso senza però banalizzarlo troppo, in modo da scendere quanto basta nei dettagli tecnici al fin di rendere l'articolo leggibile anche a coloro che non vantano una paio di lauree in ingegneria elettronica.
Prima di entrare nel vivo della questione, spendiamo due parole per spiegare cosa significa la parolina magica SHADER MODEL di cui si parla tanto nei migliori salotti mondani, tra una partita di Bridge e l'altra.
Principalmente,qualsiasi modello tridimensionale null'altro è che la sapiente composizione di un certo numero di triangoli che vengono costruiti tramite l'individuazione di punti vertice nello spazio a tre dimensioni, ed infine dalla colorazione dei pixel che poi risulteranno visibili a schermo.
Queste operazione riguardanti la grafica 3D vengono svolte dal processore centrale, la CPU, e dalla GPU (Graphic Processor Unit), che si spartiscono il lavoro secondo particolari criteri. Nello specifico, possiamo dire che i vertici vengono individuati dall'attività della CPU, su cui gira l'engine del gioco e vengono forniti in input alla scheda grafica che penserà poi a fare il resto.
Come tutti ben sappiamo, la qualità grafica dei videogiochi in questi ultimi anni ha fatto passi da gigante: oltre che a vantare modelli sempre raffinati, costruiti con un numero di poligoni sempre maggiore (quindi più triangoli, più vertici, e di conseguenza sempre più calcoli), notevoli sono i progressi riguardo effetti, illuminazione e filtri.
Questi ultimi non sono altro che il frutto di particolari calcoli svolti su i pixel visibili e sulle ossature poligonali già citate.
Ecco quindi spiegato in modo molto discorsivo cosa sono gli Shader: essenzialmente sono parti di codice, programmabili secondo particolari standard, in grado di dare un particolare effetto voluto alle immagini.
Sino ad oggi c'erano due particolari tipi di Shader, evolutisi di pari passo alle varie versioni DirectX, che di fatto li implementano nella tanto famigerata Direct3D: parliamo dei celebri Pixel Shader e Vertex Shader.
Il primo dei due lavora sui pixel, dando modo di creare effetti luce dinamici, brillantezza, resa dei materiali, delle superfici e tanto altro ancora, filtrando e quindi rielaborando i pixel che compongono l'immagine, al fine di dare un tocco di realismo visivo alla scena virtuale che il nostro PC emula.
I secondi invece agiscono direttamente sui punti che fungono da vertice per i triangoli e quindi i poligoni che costituiscono i modelli tridimensionali, creando effetti di distorsione a manipolazione delle figure per farle sembrare ancora più verosimili.
Delegare quindi l'intero rendering video ad una sola Cpu classica sarebbe un vero e proprio suicidio in termini computazionali (ovvero in carico di lavoro), per tanto i creatori di GPU hanno ben pensato di ricorrere al calcolo parallelo per ovviare il problema.
L'idea è quella di integrare nelle schede grafiche, all'interno della GPU, dei piccoli processori indipendenti e quindi capaci di lavorare in parallelo, dedicati al calcolo specifico delle funzioni Shader: ecco quindi svelati chi siano le Pixel Shader Units e le Vertex Shader Units.
Queste unità, come è facile immaginare, essendo progettate per effettuare la ristretta cerchia di elaborazione legata agli shader di appartenenza, si rivelano particolarmente veloci ed affidabili nel portar a termine il loro compito.
Il parallelismo di esecuzione pensa poi ad innalzare le performance, in quanto in un dato intervallo di tempo vengono di processati un numero consistente di dati di input (se in un intervallo di tempo t una unità x porta a termine un lavoro [Job, nel solito intervallo temporale, n unità compiono un lavoro pari a n*job)
Tuttavia dal momento che decidiamo di equipaggiare la nostra scheda con un certo numero di unità shader ed unità pixel, siamo di fronte ad piccolo grande problema di ottimizzazione delle risorse e delle energie.
Non tutte le situazione sono identiche, e può benissimo capitare ad esempio di trovarsi in un contesto elaborativo in cui vengono usate a pieno regime tutte le unità Pixel, mentre la maggior parte delle shader sono inattive, ma accese e funzionanti: piuttosto contraddittorio e controproducente, non trovate?
La situazione sicuramente si complica con l'arrivo delle nuove librerie Microsoft direct 10, in cui compare un nuovo tipi di Shader chiamato appunto Geometric Shader.
Spendiamo due parole per descrivere questa new entry: se prima, per poter manipolare un poligono, dovevamo manipolare i suoi singoli vertici, con il Geometric Shader sarà possibile gestire intere figure tramite semplici primitive di programmazione, e quindi semplificando di molto i calcoli.
Auspichiamo quindi un miglioramento radicale di effetti come ad esempio le esplosioni, che sfasciano un modello poligonale in vari pezzi, ma soprattutto la resa scalabile nella complessità di oggetti in lontananza, che aumenteranno di complessità in modo inversamente proporzionale alla distanza dell'osservatore.
Per tanto l'arrivo di questa nuova funzionalità rende ancor più difficile la stima a priori di quante unità Shader per tipo sia necessario piazzare su una GPU, e di fatto mette nuovamente in imbarazzo questo stile di progettazione.
Di fronte a questi dilemmi Nvidia ha proposto una soluzione veramente intelligente nel suo nuovo chip G80, montato sulle recenti geForce serie 8 : la prima architettura video unificata.
Andiamo quindi ad analizzarla assieme.

G80, e sai cosa mangi

Il concetto alla base della nuova architettura Nvidia è semplice: basta Pixel e Vertex Units dedicate.
Al posto di queste due figure troviamo infatti un solo tipo di processore scalare in virgola mobile a 32 bit, chiamato Stream Processor (SPs), in grado di eseguire indistintamente qualsiasi tipo di shader (Vertex, Pixel, Geometric) che le nuove librerie Microsoft Direct X 10 implementeranno.
Nel caso delle schede 8800 GTX, gli Strem Processor sono ben 128 unità, organizzate in 8 gruppi, da quindi 16 elementi collegati a funzionamento parallelo , ognuno operativo alla generosa frequenza di 1350 Mhz.




Diciamo subito che gli SPs sono gli unici componenti della GPU che lavorano ad un simile frequenza, in quanto il core grafico gira a 575 MHz: le unità che vi presenteremo in seguito lavorano infatti a questo regime.
Associati ad ogni gruppo troviamo 4 unita Texture Adress ( di indirizzamento nella memoria) ed 8 unità Texture Filtering (TF), indispensabili per l'applicazione dei filtri anisotropico, trilineare e bilineare, che servono a rendere correttamente le texture in base alla distanza e l'angolazione da cui le stiamo osservando.
Un'implementazione separata, parallela e soprattutto svincolata dal concetto di pipe, permette una miglior efficienza e velocità nel caricamento delle ram dalla memoria video, assicurando quindi performance di ottimo livello.



Infine troviamo una veloce unità Cache (una memoria i cui tempi di accesso sono molto più veloce a qualsiasi memoria RAM) di primo livello che serve a raccogliere i risultati dell'elaborazione.
A questo punto il cammino ha un bivio: i dati appena calcolati possono passare ai livelli inferiori di elaborazione, o essere prelevati dalla Cache L1, per essere dati in pasto a un altro gruppo di SPs che provvederà a fare gli ulteriori calcoli del caso.
Questo aspetto è un altro punto chiave dell'intera architettura e dell'approccio Dx10: a differenza del passato, calcoli complessi possono essere risolti tramite l'attraversamento iterativo delle batterie SPs, ovvero attraverso un ciclo di passaggi.
Tutto questo è possibile grazie alla tecnologia GigaThread, proprietaria Nvidia, che gestisce l'esecuzione dei Thread lanciati dalle chiamate di libreria compiute dal motore grafico del gioco.
L'unità Thread Processor, situata sul bus che congiunge le cache L1 all'input dei gruppi di SPs, ha l'arduo compito di gestire le operazioni, individuando quale tipo di calcoli richiedono (se vertex o pixel ad esempio), allocando dinamicamente le risorse, e decidendo quando volte il Thread deve ciclare fra i gruppi di SPs per portare a termine le operazioni Shader che intende effettuare.



Quindi l'iterazione e l'ottimizzazione sono le nuove parole d'ordine di questa architettura: come è facile intuire, una strutturazione di questo genere risolve egregiamente tutti i problemi di progettazione di cui abbiamo parlato, lasciando la GPU libera di correre a pieno regime, senza nessun inutili sprechi di risorse.
Dopo i gruppi SPs, troviamo 6 ROPs unità (Raster Operation), capaci di lavorare su 4 pixel (16 subpixel come si evince dalla figura) che hanno l'arduo compito di confrontarsi con operazioni di Blending, Z Buffer e antialiasing
Per capire cosa accade in queste unità, spieghiamo in tre parole queste operazioni.
Come ben sappiamo l'ambiente 3D generato dallo scheda viene appiattito in due dimensioni per essere proiettato su monitor.
Quindi se ad esempio abbiamo di fronte un muro di cemento armato, dietro al quale c'è un tavolo, la scheda grafica deve essere in grado di stabilire quale sia esattamente l'elemento in primo piano, quindi quale modello tridimensionale, quale texutes e quale pixel mostrare a schermo.
Questa operazione, chiamata Z-Buffering, gode di una particolare ottimizzazione nelle GPU che si basano su G80, battezzata Early Z.
Piuttosto che calcolare costantemente i pixel da visualizzare, processando un numero potenzialmente enorme di punti che compongono tutti gli elementi presenti nell'ambiente 3D in cui ci troviamo, l'architettura G80 esclude algoritmicamente in due passi distinti, i pixel che non saranno mostrati, alleggerendosi il lavoro e non sprecando tempo prezioso.
Il Blending invece è il signore che ci permette di tirar le somme sul colore definitivo di un pixel finale (se avete la risoluzione a 1024 x 768, sarà uno dei punti di questa griglia) e di dar vita a effetti visivi come campi energetici, distorsioni e sfocature, giusto per fare qualche esempio.
Tutto ciò si traduce in una "addizione" fra i valori di colore RGB (white, black, red, green, blue) di due pixel, dando come risultato la fusione fra essi.
L'antialiasing (AA) non ha certo bisogno di presentazioni: è quel filtro che va a smussare i contorni poligonali dei modelli, togliendo le fastidiose scalettature che sicuramente voi tutti avete notato una volta nella vita.
Inoltre le ROPs implementate nella GPU basate su G80, riescono finalmente ad applicare l'AA assieme all' HDR (High dinamic range), effetto grafico in grado di rendere correttamente il bagliore luminoso delle fonti di illuminazione ed enfatizzare il contrasto luce ombra.
Il processo elaborativo è quindi compiuto: a questo punto si tratta solamente di inserire i dati nel FRAME BUFFER (il flusso degli screen elaborati) che sfocerà direttamente nel Chip I/O capace di inviare le immagini a schermo.
Spendiamo qualche altra parola per parlare della RAM video equipaggiata sulla 8800 GTX, di dimensioni veramente generose.
Possiamo contare su ben 768 MB di DDR3, operative a frequenze di 1800 MHz!
Tutto questo ben di Dio viene partizionato a in 6 settori, ognuno indirizzabile da un performante controller Crossbarred operante a 64 bit, per un totale di 384 bit per ciclo di clock Ram.
Cercando di tirare le somme dell'intero discorso, possiamo tranquillamente dire che Nvidia stavolta ha veramente compiuto passi da gigante rispetto alle precedenti generazioni di GPU in performance, gestione delle risorse e flessibilità di programmazione, dando tutti i presupposti per ritenere esplosivo il futuro binomio DirectX 10 e G80.
Sino ad esso abbiamo parlato di concetti complicati, legati all'Hardware, non facilmente associabili in termini pratici ai benefici che avremo durante il gaming, ma piuttosto spiegano perché quando parliamo di 8800GTX parliamo della più veloce scheda al momento sul mercato.
Cerchiamo quindi di capire cosa tutto questa potenza è in grado di regalarci al fin della fiera: parliamo dell'insieme delle nuove tecnologie che questa belva si silicio offre, parliamo del LUMENEX ENGINE.

Lumenex engine, dopo mangiato, devi sapere cosa bevi.

La potenza di calcolo è determinante in una scheda grafica, ma la qualità visiva non è certo un aspetto di secondo ordine.
Essenzialmente parlare di qualità grafica significa parlare di un maggior livello di precisione nel calcolo dei filtri applicabili all'immagine, che si traduce in un maggior carico di lavoro per la scheda.
Per tanto, velocità o qualità?
La risposta di Nvidia è Lumenex Engine.
Dietro questa sigla si cela la capacità della nuova GPU G80 di proporre un sistema di filtri ed effetti di grande impatto visivo, ma a basso costo computazionale, grazie a una sapiente opera di progettazione unita allo sviluppo di nuove tecnologie.
Ad esempio con l'architettura G80 ha fatto la sua comparsa una nuova implementazione del filtro antialiasing, 16x chiamato Coverage Sampling Antialiasing (CSAA 16x).
Questo ultima implementazione del filtro è in grado di offrire il livello qualitativo di una Antialiasing a 16x circa al costo( +10, 20%) di un precedente Multisamplig Antialiasing (MSAA) 4x., introdotto dalla stessa Nvidia nel 2001, ed usato sino ad oggi.
Questo è un chiaro esempio della strategia alla base del Lumenex, impiegata nella progettazione di questa nuova generazione di schede: maggior qualità ad un costo minore rispetto al passato.
Il filtro antialiasing non è il solo a beneficiare di questo nuovo approccio: l'algoritmo anisotropico di filtraggio texures ha subito un vero e proprio restilying.
Questo tipo di filtro, come abbiamo detto, serve a far visualizzare le textures (immagini 2D) in un ambiente tridimensionale, cercando di evitare perdite di qualità legate alla variazione del punto di vista da cui le osserviamo.
Questo tipo di operazione si è rivelata essere particolarmente costosa, in grado di compromettere la fluidità del rendering, per tanto gli sviluppatori hanno ben pensato di focalizzare il lavoro di questo filtro solamente sulle superfici di maggior visibilità (molto spesso quelle orientate in modo ortogonale rispetto l'osservatore) al fine di scremare la mole di calcoli e fornire comunque un buon risultato grafico.
In virtù del parallelismo offerto dall'architettura G80, il Lumenex Engine è in grado di fornire un algoritmo di filtraggio anisotropico in grado di elaborare l'intera spazialità 3D, indipendentemente dall'angolo di osservazione, fornendo quindi la massima qualità senza pericolo di picchi nel framerate.
Solito discorso anche per l'HDR: la GPU G80 è in grado di calcolare parallelamente ogni componente di colore a 32 bit in virgola mobile, grazie agli SPs e alle ROP.
Per tanto, come è facilmente immaginabile, più ampiezza di colore significa maggior precisione di calcolo per l'HDR e quindi rendering sempre più verosimili e belli da vedere.
La maggior precisione interessa anche la pipeline di visualizzazione che passa dai classici 8 bit per componente di colore, a 10 bit, al fine di arricchire la gamma cromatica e produrre immagine più ricche e profonde rispetto al passato.
Risulta quindi ancora una volta evidente l'ottimo lavoro compiuto dagli ingegneri Nvidia, rivelatosi essere una vera e propria macchina da guerra per performance, con un cuore da poeta per la qualità.
Ma c'è ancora tanto da dire.

"Hai speso 800 euro per una scheda grafica?" "Si, ma la uso anche come calcolatrice"

In questi ultimi anni abbiamo realizzato sempre più quanto la simulazione delle leggi fisiche in un videogioco non sia un una semplice licenza poetica, ma un vero e proprio elemento portante del gameplay.
La nuova architettura G80 al merito implementa una tecnologia chiamata QUANTUM EFFETCS, che promette scintille.
Come abbiamo detto qualche paragrafo più su, il cuore dell'ultima GPU Nvidia è costituito dagli SPs, processore scalari a 32 bit in virgola mobile, capaci di processare qualsiasi tipo di operazione shader.
Questi processori si prestano anche a operazioni fisiche grazie alla loro capacità di calcolo scalare, dando quindi alla scheda grafica la possibilità di gestire in prima persona calcoli che prima erano appannaggio esclusivo delle CPU, che per tanto in questo nuovo contesto si trova alleggerita.
Grazie al parallelismo fra gli SPs e le politiche di gestione Thread controllate dal Thread Processor, la complessità dei calcoli fisici non sembra certo spaventare l'architettura G80, al punto da farla trasmigrare dalla sua primaria essenza GPU verso quella di una vera e propria piattaforma di calcolo scientifico.
Ecco quindi presto spiegata la tecnologia CUDA, acronimo di COMPUTE UNIFIED DEVICE ARCHITECTURE.
In virtù delle proprietà strutturali dell'architettura, G80 si presta incredibilmente alla gestione e all'esecuzione di una grande mole di calcoli anche di tipo scientifico.
Grazie ad un interfaccia particolare basata su particolari librerie Nvidia, è possibile l'esecuzione sulla GPU di particolari programmi in C, storico linguaggio di programmazione che certo non ha bisogno di presentazioni.
Visto l'alto grado di parallelismo della struttura, le performance sono veramente altissime, anche in paragone ai più moderni processori dual o quad core.
Ovviamente è possibile sfruttare lo SLI (Tecnologia Nvidia per la quale due schede identiche possono lavorare in parallelo, aumentando sensibilmente le performance) per l'elaborazione CUDA, ed è forse per questo motivo che le schede serie 8x00 presentano 2 connettori SLI, piuttosto che uno singolo come accadeva in passata.
Questo lascia intravedere la possibilità di mettere in parallelo sino a tre schede, oltre alle classiche due a cui ormai da qualche anno ad oggi siamo abituati: lo scopo della terza unità è ad oggi ufficialmente celato da mistero, ma è auspicabile l'utilizzo di tre unità completamente parallele che si smistano a loro piacimento operazioni grafiche e fisiche.

HD a chi?

Da qui a pochi anni assisteremo ad un piccola grande rivoluzione nel mondo dell'home enterteinement, legato all'arrivo dell'alta definizione, HD per amici.
Nvidia con il suo nuovo chipset ha lanciato una nuova versione del famoso codec Pure video, chiamato appunto PUREVIDEO HD, la cui caratteristica peculiare è quella di essere totalmente compatibile con i nuovi standard (DVD HD, BLUE RAY, H.264, VC-1, WMV/WMV-HD,MPEG-2 HD ).
Il concetto base è semplice: la nuova versione di questo codec sfrutta sapientemente le caratteristiche delle nuove GPU G80, delegando loro la maggior parte dei calcoli di codifica, ed alleggerendo quindi il lavoro della GPU
La tendenza all'alta risoluzione non manca di interessare anche i videogiochi, e l'architettura G80 non ha certo intenzione di farsi trovare impreparata.
Secondo un nuovo standard chiamato EXTREME HIGH DEFINITION GAMING (XHD), le schede serie 8x00 saranno in grado di arrivare alle invidiabili risoluzione di 2560 x 1600, su schermi LCD panoramici all'altezza.
A queste impegnative risoluzioni si fa sentire l'importanza dello SLI, in quanto solamente con la spartizione del carico computazionale fra due schede è pensabile giocare con frame-rate elevati, sempre se non si desideri cimentarsi solamente a Tetris o PacMan.
Tuttavia la XFX 8800GTX sembra garantire un'ottima performance anche a queste risoluzioni elevate.

XFX GeForce 8800 GTX 768MB DDR3

Dopo tutto questo speculare su architetture, chip, processori e filtri, è giunto il momento passare alla pratica, ovvero dei test a cui abbiamo sottoposto la fiammante XFX GeForce 8800 GTX 768MB DDR3, modello PV-T80F-SHF9.
Da sempre XFX è famosa per la qualità del proprio hardware, ma soprattutto per commercializzare versioni overclockate in fabbrica e garantite dei principali modelli Nvidia.
Nel caso specifico della XFX 8800 GTX, la versione da noi provata è quella base con GPU clock a 585 MHz e frequenza della memoria di 1800 MHz.
Infatti, nella rosa XFX troviamo anche due modelli più pompati, battezzati rispettivamente GeForce 8800 GTX 768MB DDR3 XXX Version (630 MHz GPU clock, 2000 MHz memory Clock) e GeForce 8800 GTX 768MB DDR3 Extreme (600 MHz GPU clock, 1900 MHz memory clock).
Appena aperta la scatola non si può che rimanere colpiti dall'imponenza della scheda: ben 27 centimetri di lunghezza su cui alloggia un corposo dissipatore di calore da 2 slot pci, basato su un impianto heatpipe al centro del quale si trova una generosa ventola, per scongiurare il pericolo di dannosi surriscaldamenti.
La grandezza del dissipatore passivo permette alla ventola di girare a basso regime per tanto producendo poco rumore, per la gioia degli amanti del silenzio.
Quasi come una vettura sportiva, anche l'8800GTX necessita di un massiccio rifornimento energetico: occorrono collegare ben due cavi di alimentazione per GPU per fornire alla scheda i quasi 300 Watt che occorrono per farla girare a pieno regime.
Non a caso Nvidia consiglia di equipaggiare il proprio pc con alimentatori da almeno 450 Watt se abbiamo intenzione di regalarci una 8800, mentre si parla di addirittura 800 Watt nel caso di un sistema SLI.
Anche stavolta, con l'aiuto di FFSOFT, siamo riusciti a montare l'XFX 8800 GTX su un sistema di alto livello, in grado di farle dare il meglio di se.
Come CPU abbiamo scelto un potente Intel Core 2 Extreme X6800 raffreddato da un corposo ed efficiente ASUS Silent Square Pro, alloggiato su una affidabilissima ASUS Striker Estreme.
Abbiamo scelto come RAM due banchi da 1Gb OCZ Technology DDR-II Platinum (4-4-4-15) e come hard disk un veloce SATA Western Digital WD740 10000 rpm, noto ai più con il nome "RAPTOR".
Oltre la XFX 8800 GTX 768MB DDR3, le schede video che si sono sfidate in singolar tenzone sono una ASUS EN7950GX2; una ASUS EN7900GTX; una ASUS EN8800GTS; ed infine una ASUS EAX1900XTX.
Il tutto è stato alimentato da un potente CORSAIR HX620W, che ha garantito la potenza necessaria per mettere le varie schede a loro agio.
I test si sono svolti sotto Window XP PROFESSIONAL Service Pack 2, opportunamente aggiornato, usando i driver ForceWare93.71 per le geForce serie 7, i Catalyst display 7.3, ed i 97.94 per la serie 8.
Purtroppo non abbiamo svolto test su Windows Vista, non per noncuranza, ma per un motivo preciso: non esistono al momento giochi capaci di sfruttare le nuove DirectX 10, per tanto non avrebbe senso far girare i test sotto il nuovo sistema operativo del casa di Redmond che andrebbe ad emulare le DX9c, abbassando quindi le prestazioni generali.
Se da un lato questa situazione ci permette di confrontare più schede (la serie geForce 8x00 è al momento l'unica scheda sul mercato a supportare le Dx10), non ci permette di toccare con mano i vantaggi che queste nuovo GPU sono in grado di offrire.
Questo allontana le Geforce 8800 dal massimo punteggio della valutazione: preferiremo riparlarne quando potremo confrontarle con la risposta di ATI alle Dx10, sino a quel momento non è saggio sbilanciarsi troppo.
Passiamo quindi a parlare dei numerosi test che abbiamo svolto, precisando prima un piccolo e doveroso dettaglio: rispetto ad altre testate che propongono test svolti ad altissime risoluzioni, preferiamo far girare i nostri benchmark a risoluzioni simili a quelle a cui giocano molti player (1024x768 - 1280x1024), in quanto al momento attuale poche persone dispongono di monitor in grado di spingersi così in alto, e quindi troviamo più utile parlare di dati che si confanno più all'uso quotidiano dell'hardware.

Futuremark 3DMark 2006

Questo benchmark è senza dubbio uno dei più famosi test usati per misurare le capacità grafiche, divenuto ormai una vera e propria istituzione nel mondo del Gaming.
Abbiamo settato il software a 1280x1024, attivando al massimo i filtri AA (antialiasing) e AF (Filtro Anisotropico).



I risultati sono evidenti: la XFX 8800GTX conduce la testa del gruppo, staccandosi in modo incredibile rispetto alle schede appartenenti alla precedente generazione, e guadagnando qualche lunghezza rispetto alla cugina ASUS 8800 GTS.
Questo risultato conferma la nostra teoria, secondo la quale la geForce 8800 è la scheda più veloce sul mercato.

Futuremark PCMark 2005

Se il 3DMark è un software capace di misurare la potenza grafica di un pc, il PCMark si propone di analizzare le potenzialità dell'intero sistema, ad esempio testando la velocità di RAM, CPU o dischi fissi.
Questo benchmark propone anche un test riguardo le performance grafiche che il sistema è in grado di sviluppare, per tanto abbiamo ritenuto interessante svolgerlo, anche se di fatti non è accurato come la catena di prove svolte dal 3DMark.



Senza sorprese, anche stavolta la XFX 8800GTX si impone sul gruppo, distaccando sensibilmente la ASUS 8800GTS.
Inaspettatamente la 7900GTX si impone sulla più potente 7950GX2, tallonando da vicino la stessa 8800GTS.
Probabilmente questa discrepanza nelle aspettative è dovuta al fatto che una singola scheda della 7950GX2 (che sappiamo essere una scheda su cui è costruito un sistema SLI a due schede) è meno potente in GPU Clock e Memory Clock rispetto alla 7900 GTX, quindi possiamo ipotizzare che il test non riesce a sfruttare a pieno l'architettura SLI della GX2, favorendo quindi la GTX.
Buona la prestazione della X1900XTX che conquista un risicato quarto posto, subito dietro la temibile 7900GTX.

Battlefield 2142 Demo

Il motore grafico di Battlefield 2142 è la versione ottimizzata ed upgradata dell'engine di Battlefield 2, e rappresenta il classico gioco di larga diffusione a richieste hardware ragionevoli, con grafica di buon livello.
Il benchmark è stato svolto usando Fraps, con cui è stato possibile misurare il framerates medio durante una sessione di gioco di tre minuti, nella solita mappa.
Ovviamente la prova è stata svolta svariate volte, ed il risultato equivale alla media delle medie.



Anche stavolta la XFX 8800 GTX guadagna il primo posto, seguita a ruota da una determina 8800 GTS, staccata di una sola lunghezza.
Al terzo posto troviamo l'ASUS EN7950GX2, che forte dei due core di calcolo si avvicina di molto alle prestazione delle precedenti due.
Infine la 7900GTX riesce a seminare la X1900XTX, fanalino di coda.
Comunque va detto che in un range di poco più 15 frames troviamo tutte e cinque le schede, e che la differenza di performance fra 8800GTX e 8800GTS sono veramente minime.
Molto probabilmente questo significa che il risultato è molto vincolato all'architettura dell'intero sistema, e non tanto alla potenza della scheda grafica che ne anima i modelli.

Oblivion

Se il nome Obliovion non vi dice niente può significare che siete stati almeno un anno in vacanza su Marte, oppure che cercate di connettervi ad internet con una vecchia macchina da scrivere Olivetti Lettera 32.
Oblivion è stato capace di ridefinire lo standard dei GDR, sia per le sue eccellenti qualità di gioco, sia per quelle tecniche.
Per tanto abbiamo deciso di svolgere dei benchmark usando il fido Fraps (nella solita maniera di Bf2142), scindendo due contesti ben distinti sia praticamente che computazionalmente : gli interni e gli esterni.







Oltre che notare che anche stavolta la XFX 8800GTX detta legge, vediamo che le ASUS 7900GTX e 7950GX2 sono state tagliate fuori dalla bagarre.
Il motivo è semplice: abbiamo svolto il test con AA 16X, AF 16X e soprattutto HDR abilitata.
Come ben sappiamo la serie geForce 7, non è in grado di far girare contemporaneamente HDR e AA, in quanto le ROPs implementate in queste schede non sono in grado di eseguire parallelamente questi due filtri.
Citiamo, tuttavia, a scopo di cronaca i valori fatti registrare dalle schede processando solo l'HDR: la ASUS 7900GTX ha fatto segnare 36 frame/s negli esterni e 66 negli interni, mentre la sua sorella maggiore, la ASUS 7950GX2 ben 132 negli interni e 67 negli esterni.
Come possiamo vedere, tralasciando il caso degli interni per la GX2, entrambe le schede hanno fatto registrato valori più bassi rispetto all'XFX 8800GTX, pur compiendo un lavoro di rendering di dimensioni minori: questo ribadisce ancora una volta le potenzialità dell'XFX 8800GTX, che si dimostra essere un vero e proprio vulcano di potenza.
Resta da dire un piccolo particolare legato all'ASUS EAX1900XTX: alfine di attivare sia HDR che AA, abbiamo dovuto forzare l'esecuzione di quest'ultimo direttamente dai driver della scheda.
In questo modo non ci siamo potuti spingere oltre AA 6X, e quindi la scheda ATI si è trovata in una situazione di minor carico: tuttavia questo non è bastato per andare ad insidiare il dominio 8800.

First Person Shooter(s)

F.E.A.R.

F.E.A.R. è un ottimo bando di prova: oltre che offrire una grafica di alto livello, accompagnata ad una complessa gestione fisica, il gioco offre di per se un benchmark interno al fine di calibrare al meglio i settagli tecnici senza sorprese sul framerate.




I risultati di questo test sono piuttosto fuori norma rispetto al trend visto nei precendenti.
La XFX 8800GTX si conferma ancora una volta regina indiscussa della rosa, ma stavolta al secondo posto troviamo un'agguerrita ASUS 7950GX2, riuscita nell'arduo sorpasso alle spese della 8800GTS.
Solito discorso per l'EAX1900XTX, giunta addirittura terza a pari merito con l'8800GTS: nessuno ci avrebbe scommesso.

Prey

Prey a differenza dei titoli citati sino ad adesso, basa il proprio motore grafico sulle librerie OPEN GL, piuttosto che sulle DX.
Questo caratteristica lo rende un titolo molto interessante su cui costruire benchmark, e per tanto abbiamo deciso di inserirlo nel nostro piano di lavoro.
Il benchmark è stato effettuato usando un tool apposito, sviluppato da HardwareOC (http://www.hocbench.com), gratuito e facilmente installabile.



Stavolta la XFX 8800GTX prende letteralmente il largo, facendo mangiare la polvere alla 8800GTS, distaccata di quasi 35 Frame/s.
Al terzo posto, a poche lunghezze dalla seconda, troviamo la X1900XTX, mentre al gradino inferiore della classifica osserviamo la 7900GTX .
Stupisce la ultima posizione della 7950GX2, capace di totalizzare quasi 100 frames/s in meno rispetto alla 8800GTX.
Come sempre, effettuiamo svariate volte i test per poi riportare la media.
Tutte le prove svolte con la GX2 hanno totalizzato risultati vicinissimo a quello finale, per tanto non possiamo ipotizzare che il basso voto sia legato ad un comportamento anomalo.
Quindi sospettiamo si tratti di un problema legato al programma di testing e ai driver della scheda, per tanto si prega di tenere in considerazione relativa questo dato.
Con i prossimi driver riproporremo il test, e vi faremo sapere.


Far Cry


Oltre che essere stato una vera e propria pietra miliare nella storia dei videogame per un ottimo gameplay, Far Cry a suo tempo fece tremare i polsi anche per la stupenda grafica che era in grado di generare.
Da sempre è stato quindi oggetto di test, e grazie ai ragazzi della Crytek, è stato possibile implementare anche l'HDR in questo capolavoro.
Per tanto, Far Cry si rivela essere un test interessante e tutt'altro che banale anche per schede di ultima generazione.
Anche stavolta siamo ricorsi ai benchmark creati da Hardware OC per misurare la febbre alle nostre care schede.





Anche stavolta le geForce serie 7 non fanno la loro comparsa nella griglia di arrivo, per la loro incapacità di gestire HDR e AA contemporaneamente.
Per la cronaca riportiamo i risultati ottenuti attivando solo l'HDR: abbiamo 68.14 FPS per la 7900GTX e 85.8 per la 7950GX2.
Prestazioni di tutto rispetto che perdono però un po' di sapore se paragonate a quelle conseguite dalle sorelle maggiori, che come abbiamo detto, hanno avuto a che fare con una mole più massiccia di calcoli.
La XFX 8800GTX sfonda il muro dei 100 frame al secondo e prende il largo sulla 8800GTS, distaccandola di ben 20 FPS.
La EAX1900XTX chiude la formazione facendo segnare una prestazione più che rispettabile.


Half Life 2

Half Life 2 è stato uno dei titoli più attesi di tutto il 2005, seguito dello storico primo capitolo, che a suo tempo segnò una vera e propria svolta nel modo di concepire i First Persoon Shooter.
Il motore grafico che muove il gioco è l'ormai famoso Source Engine, ottimo esempio di elevata qualità visiva ed ottimizzazione, che permetteva anche a coloro che non possedevano un reattore grafico di gustarsi il nuovo capolavoro dei VALVE.
Half Life Lost Coast è una mini espansione, lunga appena uno livello, costruita appositamente per spingere il source al massimo.
Tramite un l'apposito benchmark sempre creato da HardwareOC, abbiamo potuto mettere alla prova le schede con Half Life 2, mentre per quello che concerne Lost Coast abbiamo adoperato il test integrato nel gioco.
Ovviamente abbiamo spinto al massimo il carico, selezionando i livelli di dettagli più alto, e non siamo stati avari nei filtri.






Con HL2 per la prima volta non troviamo l'XFX 8800 in testa al gruppo, ma bensì l'ASUS EAX1900XTX.
La stessa ASUS EN8800GTS precede nell'ordine d'arrivo la scheda XFX, seguita da un ottima 7900GTX e da un'imbarazzata 7950GX2.
Situazione quasi analoga con lo Stress Test di Lost Coast: la XFX 8800GTX riprende il comando, tallonata da una sfavillante X1900XTm subito dietro la quale si piazza la 8800GTS.
A seguire troviamo ancora una volta la 7900GTX, sempre seguita dalla 7950GX2, anche stavolta fanalino di coda.
Alla luce dei risultati, tutte le schede hanno fatto segnare frame rate altissimi, prossimi a 200 Frame/s con HL2 e ben sopra 100 con Lost Coast.
Molto spesso in un ristretto range troviamo quasi tutte le schede eccetto la 7950GX2, che molto probabilmente non risulta sfruttata al 100%.
Non è un segreto che sino ad oggi il Source abbia regalato prestazioni migliore alle schede ATI, penalizzando per certi canti quelle targate Nvidia, perciò non siamo stupiti più di tanto dal primo posto ottenuto dalla X1900XTX in HL2, ed l'ottima performance conseguita dalla medesima in Lost Coast.

Company of Heroes

Company of Heroes è un ottimo RTS ambientato nella seconda guerra mondiale, famoso per aver saputo combinare un ottimo e raffinato gameplay ad una altrettanto superlativa realizzazione grafica.
Il test è stato svolto usando il benchmark interno al gioco, ponendo la risoluzione a 1280X1024 ed impostando il livello grafico al massimo consentito dal menù del gioco.




Stavolta il distacco fra la XFX 8800GTX e le altre schede è dir poco consistente: si parla di un margine di vantaggio rispetto alla 8800GTS, seconda classificata di quasi 30 frame/s!
Buona la prestazione dell'ASUS 7950GX2, capace di assicurarle il terzo gradino del podio.
Probabilmente stavolta la GX2 è riuscita ad esprimere al meglio il suo potenziale, grazie ad un motore grafico recente, maggiormente aperto verso configurazioni multischeda SLI.
Buono anche il risultato ottenuto dalla X1900XTX che si lascia alle proprie spalle la 7900 GTX, alla quale stavolta tocca occupare l'ultima posizione.

Rainbow Six: Vegas

Rainbow six Vegas è l'ultimo capitolo della famosa serie videoludica, che ha come protagonista una selezionatissima task force internazione antiterrorismo, nata dalla creativa penna del signore Tom Clancy.
Questo ultimo capitolo risulta essere piuttosto ingordo di risorse, per tanto abbiamo voluto mettere a dura prova le nostre schede, lanciando il gioco al massimo livello di dettaglio.
Il test è stato effettuato con l'ausilio di Fraps, calcolando svariate volte il frame rate medio di un preciso livello (Hall dell'Hotel Calypso) per un intervallo di tempo di 3 minuti, ottenendo il risultato finale come appunto media dei risultati medi.



Come possiamo osservare dal grafico la XFX 8800GTX è l'unica scheda capace di sfondare il muro dei 60, sorpassando addirittura quota 70.
Le altre schede rimangono tutte al di sotto di questa soglia, confermando ancora una volta la potenza della scheda top di gamma Nvidia.
Buona la performance dell'X1900XTX che riesce a conquistare il secondo posto, lasciando addietro di qualche lunghezza la più recente 8800GTS.
Da segnalare la prestazione della 7900GTX che si insedia al quarto posto, delegando ancora una volta a fanalino di coda la 7950GX2, che appare quindi essere la scheda più controversa dell'intero lavoro di test.
Ripetiamo ancora una volta che questa altalenante resa può benissimo essere legata al fatto che una singola scheda del sistema SLI integrato della 7950GX2 risulta essere la meno potente di tutte le altre schede, oppure ad una gestione non felice da parte del motore grafico, dello SLI.

XFX GeForce 8800 GTX La XFX GeForce 8800 GTX 768MB DDR3,PV-T80F-SHF9 è un vero e proprio cavallo di razza, capace di soddisfare nel miglior modo le richieste del gioco più esoso di risorse dell’intero panorama videoludico attuale. Forte di un’architettura, la G80, completamente innovativa rispetto al passato, la scheda riesce a fornire prestazioni grafiche di altissimo livello, a conti fatti meritandosi il primato di scheda grafica più potente disponibile attualmente sul mercato. Gli unici aspetti negativi che possiamo rintracciare sono l’alto consumo energetico e la grande quantità di calore emanata dal dissipatore. Tuttavia non vogliamo penalizzare la GPU per questi elementi, visto che i consumi elevati sembrano essere un fattor comune nelle nuove generazioni di schede video: tutto questo non deriva da un sfrenata corsa al MHz, paragonabile ad esempio alla vecchi strategia Intel, ma piuttosto all’aumento sostanziale di unità parallele in grado di fornire a cicli di clock ragionevoli una vasta rosa di risultati in output. Per tanto decidiamo di premiare la XFX GeForce 8800 GTX 768MB DDR, assegnandole quasi il massimo dei voti. Non riteniamo opportuno spingersi più in alto, visto che comunque al momento in cui scriviamo non è disponibile alcun videogioco in DX10 in grado di saggiare con mano sia le potenzialità offerte da queste librerie, sia le vere capacità di questa scheda. Inoltre al giorno d’oggi la GeForce 8800 GTX è l’unica scheda next-gen di fascia alta, dal momento che ATI non ha ancora messo in vendita la sua tanto attesa R600. Per tanto non esiste un vero e proprio termine di paragone, quindi non possiamo fare altro che basarci sulle care e ormai vecchie DX9c, notando che non esiste una scheda capace di mettere in crisi l’ultima parto Nvidia. Perciò ci riserveremo di riparlarne in seguito, quando i tempi saranno più maturi e le carte in tavola più chiare.

Quanto attendi: XFX GeForce 8800 GTX

Hype
Hype totali: 1
75%
nd