Perché tutti dovrebbero avere un SSD

Ciclicamente ritorniamo a parlare di SSD ed a spingere l’acceleratore dell’innovazione con il nostro motto +SSD -GHz. Con questo articolo vorrei rispondere ad alcuni quesiti un po’ più tecnici sollevati dagli utenti in merito la validità dei dischi allo stato solido in base all’uso del proprio Mac. Ci sono degli aspetti che evidentemente non sono chiari e spero di riuscire a spiegarli in modo molto semplice per poter essere digeriti da tutti anche se dovrò necessariamente essere un po’ più specifico del solito visto che, di recente, tra i nostri commentatori si sono uniti alcuni utenti eccessivamente critici che ci bacchettano anche se decidiamo di scrivere un giorno della settimana in maiuscolo. Il mio obiettivo non è tanto quello di sedare dibattiti e critiche ma semplicemente quello di prevenire commenti che rischiano di confondere i lettori fornendo informazioni fuorvianti.

Iniziamo spiegando meglio il senso della formula +SSD -GHz. È banalmente ovvio che parlando di prestazioni l’ideale sarebbe avere +SSD +GHz, ma anche +RAM +GPU +CACHE +GB = +EURO. Ciò che io suggerisco è ben diverso, dico che spesso si spendono 300€ in più per avere una CPU del 5% più performante e poi si lascia il disco tradizionale a 5400rpm che è esattamente come avere una Ferrari ed usarla con il freno a mano tirato. Perciò il senso è: a parità di spesa è preferibile avere un SSD e non un leggero upgrade della CPU. A chi è riferita questa frase? A mio personale parere a tutti indistintamente, dai navigatori della domenica al professionista della grafica. Cerchiamo di spiegare perché prima che arrivi qualcuno a “spiegarci” che per le prestazioni serve la CPU.

I processori elaborano le informazioni, più o meno velocemente ed efficientemente, ma queste da dove arrivano? E, sopratutto, dove vengono memorizzati i risultati? Il nostro cervello è capace di ragionare ed al tempo stesso è la banca dati della memoria, nei computer ciò avviene attraverso elementi distinti. Le cache, spesso trascurate, solo le memorie più veloci e prossime alle unità di calcolo e vengono usate per registrare questi dati “volatili”. La RAM è molto più capiente ma anch’essa può contenere solo informazioni volatili, ovvero che spariscono quando il computer si spegne. Ecco perché i nostri “file”, compresi tutti quelli del sistema operativo e delle applicazioni, necessitano di unità di archiviazioni di massa solitamente identificate con i dischi rigidi.

Diamo ora uno sguardo d’insieme allo scenario. In un computer spento tutti i dati personali e del sistema operativo (non ci interessa al momento approfondire il discorso firmware) sono scritti nell’unico posto possibile: il disco rigido. Appena lo accendiamo, la CPU inizia ad eseguire “operazioni” e tutte richiedono un input (informazioni) ed un output (risultato). La cache e la RAM sono memorie allo stato solido (diciamo, genericamente, dei chip) che consentono accessi e scritture incredibilmente rapidi. La sorgente delle informazioni primaria invece, sarà necessariamente il disco rigido (l’unica memoria di massa non volatile) che è solitamente costituita da un disco magnetico, con piatti e testine: struttura che risale al 1956. La CPU elabora i dati e secondo degli algoritmi valuta dove scrivere i risultati, prediligendo in ordine: cache, RAM e, infine, hard disk. Questo significa che, di norma, i dati più recenti vengono mantenuti nella velocissima cache per poi essere spostati nella RAM, la quale rimane comunque molto rapida. La RAM è molto più capiente della cache (si passa da KB e GB) ma è sempre limitata ed il computer ne deve lasciare sempre una quantità disponibile. Ecco perché anche con 16GB si finisce comunque con fare swap su disco allocando uno spazio che viene considerato come una estensione della memoria RAM. In sostanza il ciclo che consente al computer di funziona nasce e finisce proprio sul disco rigido.

Immaginate di avere un camino enorme capace di bruciare tonnellate di legna (CPU) e per alimentarlo un omino esile che prende i ceppi ad uno ad uno posti a 10 metri dal bracere (informazioni su disco). Il senso del collo di bottiglia è esattamente questo, quando le componenti di un sistema non sono correttamente bilanciate e vi è un elemento così lento da influenzare l’operatività degli altri i quali lavorano al di sotto delle loro possibilità. Inoltre nei computer vi sono molti servizi che operano in background e che vanno ad utilizzare il disco rigido e ve ne saranno sempre di più. Pensate a Lion con auto salvataggio, versioni, backup di time machine locale. E pensate anche ai portatili dove vi è un file di swap fotocopia della RAM che viene tenuto sempre aggiornato in modo da potersi riprendere da una ibernazione in seguito ad uno spegnimento forzato per carenza di batteria (quando vedete la barra di progressione al risveglio dall’ibernazione quel file “immagine” viene letto dal disco e rimesso nella RAM). Se qualcuno vi dice che un disco veloce serve solo per aprire file di grosse dimensioni, non dategli ascolto, evidentemente non sa di cosa parla. La velocità di questo elemento influisce su tutta l’operatività generale del computer ed i miglioramenti si notano in ogni singolo aspetto, per il professionista come per il privato. Cerchiamo di spiegare meglio anche questi aspetti per fugare ogni dubbio.

Un disco tradizionale funziona con piatti e testine, elementi meccanici che richiedono del tempo per spostarsi. Nei dischi allo stato solido (SSD) lettura e scrittura avvengono senza movimento in quanto sono formati da memorie di tipo NAND/flash e questo consente di avere diversi vantaggi tra cui una maggiore robustezza, minori consumi e rumorosità assente. Nei nostri test di solito evidenziamo la velocità di picco ma anche il valore di IOPS che specifica quante operazioni per secondo si riescono a realizzare. La velocità massima è quella che entra in gioco con letture/scritture continue, ad esempio per aprire/copiare/salvare un file di dimensioni medio/grandi, ed un SSD è più veloce di un disco tradizionale anche oltre le 10 volte: un classico HDD da 5400rpm che si trova nei portatili viaggia a circa 40MB/sec mentre un SSD SATA3 raggiunge e supera i 500MB/sec. Questo dato è già piuttosto indicativo ma non quanto il valore di IOPS. In effetti in tutta l’operatività normale che il computer esegue dietro le quinte la CPU non memorizza dati voluminosi ma tantissime informazioni che rientrano in pochi KB. Un Vertex 3 (recensione) è capace di eseguire 85000 operazioni al secondo con file di 4KB, risultato lontano anni luce da quello ottenibile con i movimenti meccanici delle testine nei dischi magnetici. Questo dovrebbe dare la misura delle differenze in gioco ma soprattutto quanto detto finora serve a capire una cosa fondamentale: un disco veloce serve a tutti, in primis al computer. Non avere quel “pezzo di ferraglia” come unità di massa primaria darà nuova vita anche a vecchie macchine con CPU lente.

Chiunque abbia provato un MacBook Air 11″ (2010) prima serie con un Core 2 Duo a basso voltaggio da 1.4GHz e con soli 2GB di RAM (recensione) vi potrà dare viva testimonianza di questa affermazione. Nel 2011 però sono arrivate anche CPU sufficientemente performanti ed i risultati sono oggi ancora migliori (recensione). Il fatto che ci sia chi crede che un disco allo stato solido migliori solo l’avvio o la gestione di file di grosse dimensioni non mi stupisce, siamo qui appositamente per spiegare che non è così. E c’è una regola che dovrebbe valere sempre: evitare di ascoltare i consigli di chi non ha mai provato ciò di cui parla.

Un SSD potrebbe, in linea del tutto teorica, essere poco influente su un server facente parte di un cluster con carico di lavoro distribuito il quale esegue solo operazioni h24, ad esempio nei centri di ricerca. Per i normali computer invece il suo apporto sarà immediato, riconoscibile ed evidente. Eviterò di differenziare professionisti e privati perché di recente un utente essendo uno studente universitario non si sentiva rappresentato dalla parola “professionista” anche se poi faceva uso di CAD e produceva rendering. Vi propongo invece un esempio concreto che riguarda un po’ tutti visto che si riferisce ad un software universalmente noto come Photoshop. Molti pensano che aprendo una JPG di 300KB sia quello il suo reale peso. In realtà non è affatto così perché si tratta di formati compressi che, per essere aperti occupano in memoria molto più spazio. Con le normali fotografie sono richiesti 3 byte per ogni pixel (metodo RGB) questo significa che, per sommi capi, una normale foto scattata con iPhone 4S da 8 megapixel per essere aperta con un programma di grafica occupa in memoria circa 23MB (3*8000000/1024/1024). Se considerate che chi fa grafica spesso crea progetti di Photoshop con decine di livelli e maschere e che ognuna di queste è come un’immagine a parte (le maschere però hanno un solo byte per pixel) potete facilmente immagine come un documento complesso, magari anche ricco di effetti dinamici, richieda una quantità di spazio in memoria incredibilmente più grande rispetto all’occupazione su disco. Questo esempio, spero comprensibile, serve a capire perché serve tanta RAM, perché i computer facciano tanto swap su disco e perché nelle preferenze di software del calibro di Photoshop e simili (diciamo “per professionisti”) vi sia una opzione dedicata alla scelta del/dei dischi di memoria virtuale che, guarda caso, si trova proprio alla voce “Prestazioni”:

prestazioni

E leggete bene cosa dice la “Descrizione”, la quale suggerisce di usare dischi veloci. Viene anche consigliato di non usare lo stesso disco dell’avvio del sistema operativo per evitare carichi di lavoro concorrenti con lo swap di sistema ma con gli SSD il problema non si pone visti i valori di IOPS.

Altra precisazione importante: in alcune operazioni il collo di bottiglia può diventare la CPU. Ad esempio nel rendering video noterete facilmente il carico di lavoro che sale al 100% e la temperatura in crescita con ventole che girano velocemente. In questi casi avere un SSD non è determinante, semplicemente perché il bilancio tra informazioni e calcoli si sposta sul secondo e per scrivere un pixel è richiesto meno tempo/sforzo che a determinare il suo aspetto. Ipotizziamo di rientrate in questa particolare casistica, vediamo di mettere i puntini sulle “i”. In primo luogo la differenza di prestazioni che vi è tra una CPU ed una immediatamente successiva in termini di GHz è di pochi secondi in meno su operazioni di decine di minuti. Tra CPU molto diverse si può arrivare anche ad un tempo dimezzato (come ho dimostrato mettendo a confronto MacBook Pro con i7 e MacBook Air Core 2 Duo in questa recensione). Ma il problema è: il vostro computer lo usate solo per premere esporta o renderizza ed attendere i risultati? Sicuramente no. Ipotizziamo di risparmiare anche 10 minuti per un rendering per via della CPU migliore, sapete quanti ne risparmierete in una sola giornata utilizzando il computer? Fin dall’accensione non avrete più quelle attese di secondi a volte minuti per lanciare applicazioni ma sopratutto usandole! Provate a lavorare su un’applicazione banale come iMovie o su una professionale come Motion con o senza SSD. La differenza è disarmante, i tempi di latenza minimi e risparmierete molto più tempo oltre ad avere una piacevolezza d’uso impareggiabile. Alla fine, comunque la girate, avere l’SSD serve anche per chi fa largo uso della CPU. Ed è per assurdo consigliabile anche a questi più l’SSD che l’upgrade di CPU. Poi chiaramente se si possono fare entrambi è tanto di guadagnato.

Mi sono dilungato troppo ma spero di aver chiarito alcuni dubbi principali ma prima di chiudere devo necessariamente fare un breve accenno sul TRIM. Ne abbiamo parlato decine e decine di volte per cui vi invito a fare una ricerca sul blog per approfondire l’argomento. In tutti i casi si tratta di un sistema che deve essere supportato sia dal disco che dal sistema operativo e che consente di mantenere inalterate le performance degli SSD nel tempo. Sui Mac con SO aggiornato è supportato ma solo con i dischi montati direttamente da Apple. Politica doppiamente sfavorevole sia in termini “di principio” che economici, visto che l’aggiunta eseguita direttamente in fase d’acquisto costa troppo. Ci sono però due considerazioni:

  • 1) vi sono piccole applicazioni che attivano comunque il TRIM, anche se io non le uso e ne le consiglio
  • 2) nelle recensioni di SSD specifichiamo sempre quelli che hanno un efficiente Garbage Collector
In termini generali TRIM e GC non fanno esattamente la stessa cosa ma, sommariamente, raggiungono gli stessi risultati. Questo specie con i controller più recenti (tipo i SandForce SF-2xxx) che gestiscono in autonomia (senza appesantire il sistema operativo) le scritture e la “spazzatura” mantenendo il disco efficiente. Volendo quindi non forzare l’attivazione del TRIM è consigliabile scegliere questi dischi ed il problema è arginato.
Maurizio Natali

Titolare e caporedattore di SaggiaMente, è "in rete" da quando ancora non c'era, con un BBS nell'era dei dinosauri informatici. Nel 2009 ha creato questo sito nel tempo libero, ma ora richiede più tempo di quanto ne abbia da offrire. Profondo sostenitore delle giornate di 36 ore, influencer di sé stesso e guru nella pausa pranzo, da anni si abbronza solo con la luce del monitor. Fotografo e videografo per lavoro e passione.

Commenti controllati Oltre a richiedere rispetto ed educazione, vi ricordiamo che tutti i commenti con un link entrano in coda di moderazione e possono passare diverse ore prima che un admin li attivi. Anche i punti senza uno spazio dopo possono essere considerati link causando lo stesso problema.