#ProgettoCaffeina: design e prestazioni da primo della classe con Intel i7-8700K e GTX 1080

Leggi questo articolo grazie alle donazioni di Salvatore Coppola, Fabio Biondi, Alessandro Sandrin, Marco Ferrauti, Enrico Valzano, Andrea Castiglione, Marcello Manzini.
♥ Partecipa anche tu alle donazioni: sostieni SaggiaMente, sostieni le tue passioni!

Veniamo da diversi anni in cui l’evoluzione dei processori era diventata una questione piuttosto semplice. Con AMD praticamente fuori dai giochi ed Intel che procedeva al ritmo lento del suo Tick-Tock, si trattava giusto di cambiare un numerino progressivo nelle sigle delle CPU all’arrivo di una nuova generazione. Il 2017 ha sancito la fine di tutto questo, con qualche risvolto positivo dovuto all’avvento dei Ryzen e un po’ di confusione in più dalle parti di Santa Clara, dove si è deciso di scollegare il codice prodotto dall’architettura e, nel consolidare il nuovo modello di sviluppo a tre fasi (Process-Architecture-Optimization), se n’è aggiunta una quarta: l’ottava generazione di Intel Core è infatti una seconda ottimizzazione del processo produttivo a 14nm.

  • Processo (14nm)-> Broadwell
  • Architettura -> Skylake
  • Ottimizzazione (14nm+) -> Kaby Lake
  • Seconda Ottimizzazione (14nm++) -> Coffee Lake

Arrivata subito dopo Kaby Lake ma con una produzione in ritardo ed apparentemente centellinata, Coffee Lake si posiziona in una cuspide temporale infelice. Ha iniziato a diffondersi nei desktop solo dalla fine del 2017, trovandosi immediatamente alle spalle del prossimo importante step evolutivo a 10nm del 2018: Cannon Lake. Tuttavia questa è ormai una consuetudine e si ha l’impressione di viaggiare in un costante limbo in cui ciò che si può davvero comprare è già superato da quel che arriverà a breve. Dopotutto anche Cannon Lake arriverà più avanti, prima nei portatili e solo nella seconda metà dell’anno sulle postazioni fisse, per cui conviene evitare di guardare troppo in là per concentrarsi su ciò che il mercato effettivamente offre. E se è certamente vero che questa ottava generazione rappresenta un po’ il passato, essendo basata su un processo produttivo arrivato al capolinea, per noi utenti è quella che offre il maggior incremento di prestazioni da 4 anni a questa parte. Nella serie i3 vi è per la prima volta un modello quad-core con possibilità di overclocking (i3-8350K), mentre il top di gamma degli i5 (i5-8600K) porta le CPU 6-core in ambito consumer; l’i7-8700K rilancia aggiungendo l’hyperthreading, con una configurazione 6-core/12-threads. È proprio su questo che si basa il #ProgettoCaffeina. Da qui daremo un taglio alle sigle scomposte della prima fase dei SaggiProgetti (Win, ITX, AMD, ecc..) attribuendo ad ognuno di essi un nome proprio.

progettocaffeina-1

Questa volta è iniziato tutto dal case, perché dopo parecchia titubanza mi sono deciso ad ordinare ed attendere un paio di mesi (forse meno) per il tanto agognato NCASE M1 V5. L’ho scelto silver per spezzare le monotonia di tutti quelli scuri che ho testato finora, anche se il nero è persino più bello. Una piccola novità da segnalare è che ora viene distribuito da SFF LAB insieme ad altri bei progetti originali come il Dan A4-SFX o lo SkySearch S4 Mini. Strutturalmente credo sia uno dei case più ingegnosi che io abbia mai visto e offre una flessibilità di installazione incredibile. Questo è il suo punto di forza ma anche di debolezza, visto che non c’è una guida o un manuale completo, per cui ci si deve affidare alla propria esperienza e ad un po’ d’intuito (immagino ci sia anche qualche video online per i meno esperti).

progettocaffeina-7

Il case è basato su uno scheletro di L16 x H25 x P33 cm, ricoperto da quattro pannelli di alluminio che si incastrano a pressione. Fa un certo effetto, non lo nego, ancora oggi quando mi capita di aprirlo ne apprezzo la qualità costruttiva. Io l’ho smontato e rimontato forse 100 volte e noto un leggerissimo disallineamento negli accoppiamenti dei pannelli laterali con quelli superiore e frontale, ma è un caso limite perché ho sperimentato tante combinazioni hardware e l’ho messo decisamente alle strette. Solo i case di fascia alta della vecchia Lian Li o di Cooltek/Jonsbo hanno una qualità costruttiva, di materiali e di ingegnerizzazione, comparabile. La cosa che differenzia l’M1 dagli altri è principalmente la flessibilità. Rileggete per un attimo le dimensioni (16x25x33) e pensate che qui dentro ci si può mettere una scheda mini-ITX, CPU con raffreddamento a liquido con radiatori da 240mm, GPU a piena lunghezza (volendo anche questa con raffreddamento a liquido dedicato), alimentatore ATX standard, lettore/masterizzatore, 2 x HDD/SSD da 2,5” oltre a quello su scheda madre, 2 x HDD da 3,5”, 4 ventole da 120mm…

So cosa state pensando (impossibile!!1!!), ma il segreto è semplice ed è racchiuso in una piccola parola: “può”. Ovviamente non si possono mettere tutte queste cose insieme, spesso non ci si riesce neanche in case con un volume quadruplo. Quello che offre NCASE M1 è la modularità, ma ogni scelta comporterà dei sacrifici. Tanto per fare un esempio, se si decidesse d’installare un alimentatore ATX e non SFX si dovrebbe dire addio all’installazione di: due dischi da 2,5/3,5”, una ventola da 120mm ed al radiatore da 240mm per il raffreddamento della CPU. Può sembrare strano visto che tutte queste cose insieme sono decisamente più grandi della differenza che esiste tra PSU ATX ed SFX; il fatto è che ogni elemento all’interno di questo case occupa non solo il suo spazio ma anche quello potenziale di altri, per cui l’elenco citato prima è sicuramente vero solo se però ci si mette la disgiunzione logica “o” tra varie voci.

progettocaffeina-6

Elencare tutte le possibili combinazioni attuabili con questo case è una cosa difficile – forse per questo non hanno fatto un manuale? – quindi dovrò per forza di cose limitarmi al mio specifico uso, citando di volta in volta qualche possibile variante che ho testato o valutato. Il primo sguardo laterale all’interno mette in evidenza la scheda grafica, che come ho detto può essere anche piuttosto lunga e nel mio caso lo è, essendo una NVIDIA GTX 1080. Al di sotto di questa vi è un po’ di spazio e le filettature per installare due ventole da 120mm; in alternativa si può variare con un disco da 2,5” e una ventola. Io ho provato diverse combinazioni, ma devo dire che è molto meglio lasciare la GPU libera di fare il suo lavoro. Quando ho aggiunto due ventole non ho visto nessun reale vantaggio al di fuori di un paio di gradi in meno sotto stress ma con maggiore rumorosità e consumi, per cui le ho tolte. Avendo scelto la versione Founders Edition della GTX 1080 potrei effettivamente mettere un SSD da 2,5” a sinistra senza intralciare l’areazione della GPU, ma se si opta per una di quelle con doppia ventola potrebbe non essere una grande idea (il disco si beccherebbe tutta l’aria calda in estrazione).

progettocaffeina-9

L’elemento sopra la GPU è un supporto molto interessante che include anche un filtro magnetico utile a proteggere e ridurre la rumorosità. Qui si trovano due moduli da 120mm che possono essere usati per ventole o radiatori, fino ad un massimo di 240mm. Il primo tentativo che ho fatto è stato proprio con il raffreddamento a liquido, ma scegliendo le soluzioni all-in-one i tubi sono troppo lunghi per questo case e bisogna costringerli all’interno con delle convoluzioni che preferisco evitare. Oltre ad avere potenziali impatti negativi sull’efficienza della pompa ed un pessimo risultato estetico, si riempie tutto lo spazio interno e si limita la già complicata dissipazione termica di tutti i componenti in un case così piccolo. Ho provato l’ottimo FrostFlow+ 240 ed anche i Deepcool Captain 240EX e 120EX RGB, ma il sistema soffriva troppo ed era difficile da stabilizzare con l’overclocking. Un case così compatto nasce per soluzioni di raffreddamento a liquido custom, per chi ha la pazienza per metterle in piedi. Tagliare i tubi per accorciarli nelle soluzioni AIO non è praticabile. Con il radiatore da 240 e due ventole da 120mm si ha poi un’altra ricaduta negativa, perché si occupa il modulo da 120mm sulla destra a cui è agganciato un supporto (fornito in dotazione) che può contenere due HDD da 3,5mm.

progettocaffeina-10

Nella mia configurazione finale questa struttura è rimasta inutilizzata comunque per altre ragioni, ma ho mantenuto almeno il frame di metallo perché contribuisce a dare resistenza strutturale allo scheletro e aiuta a contenere la rumorosità. Tolto questo elemento protettivo si ha accesso completo all’interno del case, ovviamente dominato dalla scheda madre in formato mini-ITX.

Ho scelto la Asrock Fatal1ty Z370 Gaming-ITX/ac perché offre ampia possibilità di configurazione per il raffreddamento ad aria o ad acqua, supporto esteso all’overclocking, slot Ultra M.2 PCIe x4, Wi-Fi ac dual band, Bluetooth 4.2, connessioni audio complete ed una Thunderbolt 3 / USB-C. Per fortuna nella versione Z370 hanno sostituito la colorazione rossa con un più gradevole grigio scuro, che non si vedrà mai su questo case ma l’ho preferito comunque per la maggiore attinenza allo schema cromatico del progetto.

progettocaffeina-12

Come processore ho puntato al top per Coffee Lake, ovvero l’i7-8700K, così da poter testare i vantaggi derivanti dal passaggio a 6C/12T rispetto i 4C/8T del precedente i7-7700K usato nel #ProgettoWinM2. Di base il clock è di 3,7GHz (Turbo a 4,7GHz) ma con una buona areazione si può mettere su un overclocking “stabile” a 5GHz senza troppa fatica. Il punto è: conviene? Se si vuol vedere il numerino salire nei vari test sicuramente sì, ma per farlo si è costretti a pagarne le conseguenze. Posto che i chip non sono tutti uguali e che si deve sempre procedere con cautela, salendo a 5GHz si consumerà molto di più (il TDP passa facilmente da 95 a 170W) e si riuscirà a sostenere lo sforzo per minor tempo. Prove come Geekbench sono utilissime, ma caricano pochissimo sul processore e si superano facilmente. Già la fase multi-core di Cinebench R15 è un banco di prova leggermente più impegnativo e, difatti, superato un certo livello di overclocking inizia a mostrare una curva negativa mentre Geekbench 4 continua a salire. Su quest’ultimo avevo raggiunto numeri enormi giusto a scopo di test, ma se poi provavo a mandare in esecuzione uno stress test vedevo chiaramente che la CPU andava in sofferenza.

Non è il caso di scendere troppo nel dettaglio qui, l’argomento è troppo vasto, ma ci sono diverse scuole di pensiero sull’argomento e io ci tengo a chiarire la mia. Se vi parlo di OC non dovete immaginarmi come un ragazzino coi brufoli che rischia di bruciare migliaia di Euro di hardware comprato coi soldi di papà solo per mezzo fps in più nel videogioco del momento. L’immagine mi fa sorridere, per questo la descrivo, ma non la critico: sono passioni ed è giusto sperimentare, fare esperienza… inoltre i brufoli li abbiamo avuti tutti. Il mio metodo è comunque molto diverso perché voglio sfruttare “lo spunto” in più che un aumento di frequenza può dare, se questo è consistente, ma ho prima di tutto la necessità di salvaguardare il mio investimento e la continuità operativa nel lavoro. Per questo motivo evito di cambiare un parametro prima di capire cosa faccia e tratto ogni processore come se fosse unico, senza mai riprendere impostazioni che con troppa superficialità vengono suggerite su forum e video. Leggete e guardate tutto ciò che potete, ma tenete acceso lo spirito critico. Se uno vi consiglia di togliere completamente i limiti di erogazione energetica sulla CPU e di disattivare le protezioni native, beh… sapete che dovete chiudere e andare avanti.

Al netto di potenziali rischi dovuti solo ed esclusivamente all’incuria dell’utente, l’overclocking è una possibilità troppo interessante per non essere indagata. Dopotutto, i meccanismi come il Turbo dei processori Intel e la sua controparte Thermal Throttling, ci dicono proprio questo: i processori moderni sono pensati per riuscire a sopportare frequenze superiori ma per brevi periodi, dopo i quali è necessario rientrare nei ranghi (o anche al di sotto) per ragioni di sicurezza. Io mantengo attivi tutti questi sistemi perché non voglio avere un treno che viaggia costantemente con voltaggi eccessivi e consumi come una stufa a vapore pure per scaricare la posta. Il Thermal Throttling non è quindi un nemico da uccidere, ma un vostro amico a cui dovete dire grazie visto che evita di farvi friggere la CPU. Se entra in azione troppo spesso non dovete disattivarlo, ma solo capire perché e cercare di bilanciare carichi, frequenze, voltaggi, areazione, ecc.. Non dico che sia facile, su questo computer ho passato diversi giorni a fare del fine tuning e prima di iniziare a lavorarci ho eseguito i miei tradizionali stress test, sia simulati dai benchmark che quelli reali delle attività con cui ho a che fare. Allo stesso tempo evito pure di esagerare nell’altro senso: non ha senso lasciare il computer accesso per una settimana a lavorare con tutti i core al 100% con Prime95 o IntelBurnTest. Prima di tutto perché attività reali che sfruttino così tanto la CPU si può dire che non esistano nella normale operatività ma soprattutto perché se avete queste esigenze e comprate un processore mainstream come questo invece di uno Xeon, probabilmente avete sbagliato a monte.

progettocaffeina-32

Nel caso di specie ho raggiunto il mio equilibrio con un OC a 4,8GHz ed un consumo di picco da 140W, ma tale frequenza non viene mantenuta quando non serve e neanche si sostiene per troppo tempo, visto che su lunghe operazioni si scende intorno ai 4/4,1GHz con un TPD che oscilla tra 110/120W. In passato ragionavo diversamente ma ora preferisco evitare di alterare il funzionamento naturale della CPU e non uso neanche i profili di OC nativi delle schede madri, perché ho notato che troppo spesso tendono ad aumentare i voltaggi oltre i limiti di sicurezza. Pur con tutte queste auto-limitazioni, l’overclocking “saggio” rimane una pratica che consiglio vivamente: trovato il punto di equilibrio si ottiene un incremento di prestazioni concreto e quasi gratuito. Andando oltre diventa una sfida tecnica che può essere altrettanto stimolante, ma che non ci interessa per raggiungere il nostro obiettivo: un computer sicuro, performante e di cui si sfrutti l’hardware al meglio delle sue possibilità.

progettocaffeina-16

La memoria che ho scelto è l’ottima Corsair Vengeance LPX 32GB DDR4 3000MHz C15, con due moduli bianchi da 16GB. In realtà il colore non era voluto ma il frutto di un prezzo decente trovato al momento opportuno. Comunque non mi è dispiaciuto e alla fine i moduli sono risultati pure in tinta con il dissipatore che ho deciso di mantenere… e che comunque le ricopre interamente al di sopra.

progettocaffeina-17

Un sistema di areazione che mi piace molto è il Dark Rock Tf di Be Quiet!, che ha un bel radiatore e due ventole disposte parallelamente alla scheda madre, tuttavia non va tanto d’accordo con il formato ITX in quanto le curve delle condutture possono urtare sulle RAM. La mia seconda scelta è stata la Cryorig CR-C1A, che ha i tubi più arretrati ed è anche più bassa, avendo una sola ventola ma da 140mm. Il TDP massimo è limitato a 140W, ma il dissipatore ha una buona efficienza termica, è molto silenzioso, costruito in modo eccellente e costa di meno. Inoltre possiede un vantaggio addizionale interessante, perché non solo non urta sulle RAM ma le aiuta pure a respirare. Non è esattamente come avere un soffio costante di aria fresca, però non le opprime e riesce anzi ad estrarre calore attraverso il radiatore e la ventolona piatta da 140mm. Mi reputo piuttosto soddisfatto del prodotto e penso che lo riuserò in altre configurazioni future. Avevo valutato anche una Noctua, ma credetemi se vi dico che quelle ventole beige e marroni mi fanno star male, infatti quando ho messo la NH-D9L nel #ProgettoWinITX sono stato “costretto” a sostituire la ventola originale e non è una cosa che amo. Non tanto per la spesa in più ma anche perché si altera la resa termica e e acustica prevista di fabbrica.

progettocaffeina-23

Da qualche parte ci doveva pur essere un aspetto negativo in questo dissipatore di Cryorig e sta nel fatto che sporge sulla destra un po’ oltre la scheda madre. Lo sbalzo non è eccessivo e nella maggior parte dei case risulta ininfluente, ma non sull’M1 dove l’alimentatore è posto proprio di fianco ed urtava. Per fortuna la sua proverbiale modularità mi ha consentito una soluzione diversa, in quanto si può rimuovere il supporto per l’alimentatore SFX posto parallelamente alla scheda madre e se ne può mettere uno ATX un po’ più a destra ma perpendicolarmente. Ho comunque evitato di passare al formato più grande visto che lo spazio è poco ed ho installato il Silverstone SX600-G SFX modulare previsto inizialmente, ma con la disposizione di quello ATX grazie all’adattatore fornito in dotazione. In questo modo ho evitato che urtasse il dissipatore ed ho anche una camera d’aria più regolare e profonda. Chi di modularità ferisce di modularità perisce, perché questa, come ogni altra scelta con questo case, comporta delle perdite. Nella fattispecie l’installazione del PSU in profondità rende necessaria la rimozione del castelletto per i due HDD da 3,5mm di cui ho parlato in precedenza. Io non l’avrei comunque utilizzato, per cui ho scelto questa strada con convinzione.

progettocaffeina-18

Ci sono altri posti dove installare dischi in questo case e non li ho neanche sfruttati tutti. Per il boot mi sono affidato alla velocità e la compattezza del disco PCIe e nel valutare le diverse opzioni ho finito per scegliere di nuovo il Samsung 960 EVO da 500GB. Questo è situato sul retro della scheda madre ed è pienamente accessibile grazie all’apertura del case e il pannello rimovibile. Ho inserito anche un secondo disco per i dati ed ho scelto l’ibrido Seagate FireCuda da 1TB. Per meno più di 50€ ci offre una buona capienza di stoccaggio ed una velocità superiore a quella dei dischi meccanici puri grazie all’aggiunta di una piccola cache in formato solido. In tutti i casi l’ho impiegato principalmente per archiviazione statica e l’ho posizionato in uno spazio che si trova proprio dietro l’alimentatore grazie ai supporti gommati dell’NCASE M1 che si incastrano a scorrimento all’interno di fori opportunamente sagomati.

progettocaffeina-19

Sta un po’ stretto qui, ma non ho notato comportamenti fuori norma anche sotto stress. Altri possibili spazi per dischi sono al di sotto della scheda video, dove ho preferito lasciare campo libero per installare più facilmente gli SSD in prova (che tengo per pochi giorni). Preciso che tutti i test finalizzati ai benchmark sono stati effettuati sfruttando solo l’SSD NVMe di Samsung.

Finita le descrizione dei componenti, vorrei ritornare un attimo sul case. Viste le dimensioni così compatte mi aspettavo di dover fare molta fatica per assemblare il tutto. In realtà ho finito per “giocarci” anche più del dovuto, provando mille combinazioni diverse, proprio perché è facile da maneggiare. Il fatto che si apra completamente su tre lati e, in parte, anche frontalmente fa arrivare bene l’illuminazione e consente spesso di usare entrambe le mani. Non dico che sia sempre tutto facile, viste le dimensioni in gioco e l’assenza di un manuale completo, ma se si ha un po’ di esperienza ci si può avventurare senza problemi, ottenendone buona soddisfazione. Una cosa da considerare è la quasi totale assenza di interstizi per il cable management, per cui l’alimentatore modulare è praticamente obbligatorio e il disco PCIe va sfruttato per eliminare altri due cavi. Con un po’ di accortezza in fase d’acquisto e un pizzico di manualità, si riesce comunque ad ottenere un risultato abbastanza pulito. Nel complesso direi che merita i soldi che costa, peccato che per averlo in Italia si debba pagare parecchio di spedizione più la dogana. Prima di passare ai risultati dei test, vi elenco dettagliatamente tutti i componenti con i prezzi pagati al momento dell’acquisto. Non avrebbe senso riportare quelli attuali perché tanto varierebbero facilmente, in particolare RAM e GPU che vanno su e giù come le montagne russe (in grazia delle criptovalute e la fame di mining).

Da dove iniziamo? Beh, non si può non partire con l’immancabile Geekbench 4. Come ho detto poco fa, volendo si riesce a “truccare” questo risultato andando oltre, perché tanto non mette troppo sotto stress l’hardware e quindi non si vedono i potenziali limiti di un errato overclocking. Quella che vedete qui sotto è la migliore prestazione che ho ottenuto in condizioni ottimali, ovvero quando il computer si è dimostrato perfettamente stabile in qualsiasi altra attività fittizia o reale che io abbia sperimentato nelle ultime settimane. C’è poco da dire: fa paura. La differenza rispetto i precedenti top di gamma consumer con 4C/8T è tantissima e considerate che anche sugli altri vi era overclocking, altrimenti sarebbe stata una gara del tutto impari. Ho appositamente lasciato in arancione anche il Ryzen 5 1600 (parente diretto del 1600X) in quanto anche quello possiede 6C/12T, ma non si avvicina minimamente a questi risultati. Vero pure che l’avevo mantenuto con il dissipatore stock e non sono salito sopra i 3,6GHz rispetto i 3,2 di partenza, ma non c’è alcun dubbio che questo i7-8700K si posizioni nettamente al di sopra per efficienza. Infatti il suo risultato “liscio” a 3,7GHz è comunque di 5483 / 24218. Un vantaggio tecnico significativo che, va detto, deve tener conto di un altrettanto corposo premium price: qui parliamo di un processore che supera i 300€, contro i meno di 200 a cui si può trovare il Ryzen 5 1600.

progettocaffeina-benchmark

Di GTX 1080 ne abbiamo provata una di recente con il #ProgettoWinM2; questa volta però ho preso la Founders Edition che è meno spinta, essendo proprio come mamma NVIDIA l’ha fatta. Il risultato sintetico di Geekbench 4, sezione Compute, conferma il tutto con prestazioni leggermente inferiori, ma neanche tanto.

La situazione si ribalta nettamente quando si chiama in gioco Cinebench R15 e si analizza la resa di CPU+GPU con OpenGL. Qui il #ProgettoCaffeina tira di nuovo fuori i muscoli e si staglia ben al di là del precedente con 192,44fps. Ho toccato i 200 in alcuni casi ma avevo poi minori prestazioni in altri ambiti e quando ho aumentato la frequenza a 5GHz qui ero rientrato intorno ai 180. Senza OC si precipita a 160fps, giusto per fare un piccolo esempio di quanto possano variare le cose.

progettocaffeina-cinebench-opengl

A metterci lo zampino è ancora una volta la CPU, che già va benone in single-core ma fa davvero la differenza in multi-core. Il Ryzen 5 1600 del #ProgettoAMD non se l’era cavata male, soprattutto ribadendo il discorso relativo al alla differenza di prezzo. Core e thread contano molto in questo caso, infatti l’i5-7600K con quattro core secchi fatica non poco rispetto gli altri.

progettocaffeina-cinebench-cpu

Come ultimo test “astratto” vi propongo LuxMark 3.1, che con il rendering OpenCL della scena Hotel Lobby mette a dura prova l’hardware. Ebbene, ancora una volta qui la “vecchia” GTX 980ti ha una marcia in più, che le consente di battere i nostri progetti più moderni. Considerate che su questa prova la CPU incide pochissimo, meno di 1/10 direi, ma il vantaggio del primo #ProgettoWin con i7-6700K è piuttosto indicativo. Le librerie comuni interessano sempre meno a chi realizza GPU in questa fascia che, per inciso, sarebbe quella dei videogiocatori. Ma se si usano software basati su CUDA poco male, ci si becca comunque un enorme vantaggio dalle schede più recenti anche in ambito professionale.

progettocaffeina-luxmark

Quando parlo di test “astratti” non intendo in ogni caso sminuirli. Considerate che i dati sintetici visibili qui impattano direttamente sui software, sia in termini più generici (come nel caso di Geekbench CPU) che più specifici. La differenza misurata con CUDA, sempre da Geekbench, si nota in proporzione quasi identica nei software che sfruttano quel framework, tra i quali una parte del pacchetto Adobe, ma la lista è così lunga che NVIDIA ha creato un motore di ricerca per navigarla (qui una più compatta in italiano). Allo stesso tempo, leggendo le prestazioni con OpenGL / OpenCL, per quanto siano sintetiche, dovete immaginare che si ritrovano nei software (o giochi) che utilizzate e che le sfruttano. Ecco perché questi benchmark non sono poi così eterei come potrebbe sembrare. Il mio personale punto di vista rimane però quello di un fotografo e videografo, ragione per cui è lì che mi focalizzo.

progettocaffeina-photoshop

Photoshop va meglio su Intel, ma il vantaggio tra i primi due in classifica – che differiscono quasi solo per la CPU – non è neanche così massiccio come ci si potrebbe aspettare. Nel caso di specie, si trattava di applicare in batch una serie di filtri complessi su 10 foto della X-T2, compresa apertura e salvataggio. Con Lightroom il miglioramento è molto più netto e devo dire che il software sembra sfruttare a fondo le potenzialità di un hardware multi-core, difatti anche il più economico AMD qui se l’era cavata molto bene. L’esportazione è quella in cui si apprezza più facilmente l’incremento numerico riscontrato con la coppia i7-8700K + GTX1080, ma devo dire che tutto il software gira molto bene. È di sicuro la migliore esperienza che ho con Lightroom da diversi anni a questa parte e ci ha messo lo zampino pure Adobe che ha velocizzato l’importazione in catalogo nelle ultime release.

progettocaffeina-lightroom

Il pezzo più importante per me è Adobe Premiere, colui che anche sul mio super iMac (recensione) fatica non poco. Con le NVIDIA e CUDA inizia invece a volare, così come fa Final Cut Pro X con AMD/Metal, per chi lo preferisce. Da precisare che Premiere propone anche un supporto sperimentale a Metal su macOS, ma è disastroso e nella maggior parte dei casi manda tutto in crash sia con NVIDIA (tramite eGPU) che con AMD. Qui si ottengono risultati “bislacchi” e i Ryzen si confermano imprevedibili rispetto agli Intel, con il 1600 che era riuscito persino ad essere più veloce nell’esportazione di una timeline UHD pur avendo una GTX 1060 3G. Come esperienza d’uso complessiva, però, mi sono trovato meglio con i progetti a base Intel e ovviamente quest’ultimo, essendo il più potente, è il migliore.

progettocaffeina-premiere

In casa Blackmagic, DaVinci Resolve 14 ci offre modo di valutare anche l’efficienza del rendering della timeline, cosa che realizza quasi solo con la GPU. Non è un caso che i dati degli ultimi due progetti siano praticamente identici, avendo entrambi GTX 1080, e che il più lento sia risultato quello con la scheda grafica “peggiore” del gruppo: la GTX 1060.

progettocaffeina-davinci

Giunti alla fine del #ProgettoCaffeina (precedentemente noto come #ProgettoWinM3) vi propongo giusto un paio di valutazioni di carattere personale. Se si sceglie questo case lo si fa per lo stile e le dimensioni, ma almeno le seconde le potete trovare con 1/4 della spesa nel Cougar QBX Pro (recensione). Merita sicuramente la spesa aggiuntiva questo NCASE M1, ma è una soluzione estrema: ha senso se vi piace, anche se dentro ci mettete un i3, e ha senso se volete divertirvi con una soluzione di raffreddamento custom, perché ci si possono fare cose incredibili e bellissime. Se si punta principalmente alle prestazioni non è proprio una buona idea, perché un po’ costringe nell’areazione se si vogliono utilizzare soluzioni con radiatori a liquido All-in-One. C’è comunque tutto uno spazio grigio in mezzo che può comunque valutarlo attentamente, perché è effettivamente molto bello e ben fatto, nonché flessibile, ma si deve essere disposti a pagarne il prezzo.

Per la CPU si deve un attimo capire quali sono le mire di Intel da qui al prossimo futuro ma, come consumatore, questo incremento di core e threads su tutta la linea mi è piaciuto tanto e non credo che il passaggio ai 10nm si rivelerà altrettanto ghiotto per chi ha bisogno di prestazioni, almeno non nella prima generazione “Process”. La RAM superiore ai 16GB non è quasi mai una necessità per un utente o un professionista medio, ma se si lavora con file video 4K allora i 32GB sono consigliatissimi, specie con Premiere. Sugli SSD ho smesso di fare benchmark sintetici, anche se vorrei riprendere a breve, ma nel prossimo computer ne ho messo uno SATA tradizionale e devo dire che non noto quasi nessuna differenza nell’uso quotidiano. Inizio a pensare che il passaggio ad NVMe sia quasi un surplus ad oggi e che i numeri di picco di lettura e scrittura siano davvero sopravvalutati.

Per le GPU, NVIDIA si conferma la mia preferita: con i software con cui lavoro offre tutta un’altra esperienza e gli ultimi test con l’iMac top di gamma sono molto deludenti a confronto. Se però mi chiedete da quale computer vi sto scrivendo vi rispondo: un Mac. Non c’è verso che io riesca a trovare più comodo Windows e le poche praticità che vi riscontro sono completamente annullate dalla migliore ergonomia del sistema operativo made in Apple.

In quanto a stile si possono trovare bellissime cose in entrambi i mondi, ma non sono tanto interessato alle ibridazioni. All’inizio di questo percorso di SaggiProgetti stavo molto attento alla compatibilità con macOS nel caso qualcuno volesse farsi un hackintosh, oggi come oggi non la considero più un’alternativa sensata. Ci si può sicuramente lavorare con una discreta dose di continuità, ma se è la tranquillità operativa che si cerca, allora molto meglio un Mac con macOS o un PC con Windows/Linux… Il mio computer personale è e penso resterà un Mac per ancora molto tempo, mentre per il lavoro impegnativo mi sono “rassegnato” ad usare il sistema operativo di Redmond con il quale gestisco i file video e realizzo i montaggi, per cui mi risulta quasi trasparente (ma va detto che l’ho usato dalla versione 3.1 ad XP, quindi non mi è estraneo). La prossima settimana dovrebbe arrivarmi finalmente l’iMac Pro, chissà che non mi faccia cambiare idea. Nel frattempo continuo ad affidarmi a questo piccolo e potente #ProgettoCaffeina come faccio ormai da un paio di mesi a questa parte ed è davvero un piccolo missile travestito da soubrette.

Maurizio Natali

Titolare e caporedattore di SaggiaMente, è "in rete" da quando ancora non c'era, con un BBS nell'era dei dinosauri informatici. Nel 2009 ha creato questo sito nel tempo libero, ma ora richiede più tempo di quanto ne abbia da offrire. Profondo sostenitore delle giornate di 36 ore, influencer di sé stesso e guru nella pausa pranzo, da anni si abbronza solo con la luce del monitor. Fotografo e videografo per lavoro e passione.