Categorie
SPECIALI RV

Quanto sono affidabili benchmark e test approfonditi sull’hardware?

In sede di recensione, l’affidabilità dei benchmark di smartphone, CPU, GPU e altri componenti è messa in discussione da decenni, eppure molti attingono proprio a quei dati prima di acquistare un nuovo prodotto. In questo articolo vogliamo provare ad approfondire questo discorso, esponendo i nostri punti di vista, alla solita maniera: semplice e senza tecnicismi inutili. Occupandoci anche di quelli che sono i test su altri componenti hardware, e non solo i software di benchmark. Sarà un articolo molto lungo, da tè con i biscotti.

Nessun benchmark è al di sopra di ogni sospetto

Il benchmark è un software che effettua una serie di test per misurare le prestazioni di un prodotto. Questo prodotto può essere un componente (CPU, GPU, HDD…), l’intero sistema (notebook, smartphone…) ma anche un software. Per approfondimenti vi invitiamo a visitare la pagina inglese di Wikipedia. Nel linguaggio comune, spesso chiamiamo benchmark anche quelli che sono test di altra natura, come per esempio i test sugli alimentatori o quelli sui monitor. Non esiste un benchmark fidato e non esiste in nessun ambito. Anche quelli economici e finanziari, che hanno ben più imponenti fari puntati contro, si rivelano inattendibili

Interferenze

I software (e le piattaforme) di benchmark più diffusi appartengono a privati e anche quelli riconosciuti come “verificabili” sono presieduti o partecipati da marchi che hanno interessi diretti. I modi in cui i benchmark possono essere influenzati sono molteplici ma nessuno di essi restituirà risultati non corretti. E un risultato corretto non è detto che sia vero. Detta più semplice: secondo il benchmark tal dei tali una bottiglia di vino può riempire sei bicchieri. Il tipo di bicchiere e la sua capacità è però decisa da tal dei tali e può differire molto dai nostri bicchieri. La frase è dunque corretta ma non corrisponde a verità.

Il fondo… di verità

Negli anni diversi benchmark sono finiti al centro delle critiche per mancanza di obiettività. Tra i casi più recenti ricordiamo la class action, lunga quasi 15 anni, contro Intel (e HP), accusata di aver falsato i risultati di WebMark e SYSmark. Intel non ha ammesso le colpe ma ha preferito chiudere la questione con qualche soldino, dopo aver impegnato un patrimonio in avvocati. Sembra una cosa da niente, dove non ci sono ammissioni e dove AMD non ha nemmeno provato a chiedere un risarcimento. Però chiunque abbia posseduto un Pentium 4 e un Athlon sa bene che gli Athlon andavano meglio. Anche i Pentium 3 giravano meglio dei 4, per dirla tutta.

Repetita SYSmark

Per SYSmark sembrerebbe essere un vizio incurabile, almeno a sentire AMD. SYSmark è sviluppato da un consorzio no-profit composto principalmente dai partner di Intel, oltre alla stessa Intel. Tra i membri troviamo anche una testata importante, Cnet, che nell’immaginario collettivo dovrebbe essere più neutrale di qualsiasi benchmark. Insomma proprio un bell’ambientino senza il minimo conflitto d’interesse.

Differenza tra benchmark sintetici, reali e ibridi

I sintetici sono i più diffusi e perciò i più noti. Nomi come 3dMark e PCMark suonano familiari a chiunque abbia cercato informazioni online almeno una volta. Eppure i benchmark sintetici sono anche considerati, all’unanimità, quelli più inutili. Il motivo è semplice: misurano le prestazioni ignorando qualsiasi altro fattore, senza riflettere l’esperienza reale dell’utente. Questo significa che un produttore può facilmente manomettere il proprio hardware per ottenere il massimo in un benchmark sintetico (e viceversa *blink-blink*).

Real world benchmark

Questo tipo di benchmark si focalizza sui carichi di lavoro reali, ovvero la creazione di modelli in 2D e 3D, la decompressione di un file, la conversione di un video, etc. Il problema è che non sono in grado di misurare le prestazioni del singolo componente. La prestazione misurata è sempre quella dell’intero sistema. Per ovviare a questa piccola grana, le testate più grandi tendono a usare la stessa configurazione, cambiando il singolo componente d’interesse per la recensione.

Quindi avremo stessa ram, stessa mobo, stesso SSD etc. ma processori diversi, se giudicano un processore dello stesso brand e, ovviamente, almeno la mobo sarà diversa col cambio di processore. Questi test andrebbero ripetuti di volta in volta, tutti, perché cambiano i driver, vengono aggiornati i software, e ci sono tutta una serie di variabili da considerare. Ma nessuna testata assembla decine di volte un sistema per rieseguire tutti i test, si limitano bensì a utilizzare i dati dei test passati.

Benchmark ibridi

Alcuni benchmark sintetici, compresi i già citati, sono oggi considerati degli ibridi. Effettuano i soliti test dei sintetici, aggiungendo poi una sorta di casistica legata agli utilizzi reali. Anche qui abbiamo una tipologia di benchmark inutile per capire le performance dei singoli componenti. Semplificando… Chi è poco ferrato, solitamente chiede al più esperto: «Che PC mi consigli?», a cui segue: «Che ci devi fare?». Quando la risposta è: «Un po’ tutto», il benchmark ibrido è utile. In tutti gli altri casi serve il RW benchmark.

Benchmark degli smartphone

Se è possibile essere più inutili di un benchmark sintetico, quelli degli smartphone si piazzano proprio lì. Essi rappresentano sia l’apoteosi del facilmente falsificabile (anche dall’utenza comune, via app + accesso root) che l’emblema della differenza sostanziale che c’è tra un punteggio alto e l’esperienza dell’utilizzatore. Come e più di un PC, uno smartphone deve essere utilizzato per giorni prima di poter essere giudicato e non c’è performance teorica che tenga.

Allora perché tutti pubblicano i risultati dei benchmark?

Iniziamo col dire che c’è differenza tra l’utilizzarli e il pubblicarne i risultati. Noi di RecensioniVere utilizziamo i benchmark ma non pubblichiamo i risultati. L’utilizzo è necessario, principalmente, per vedere al volo se il sistema è stabile, se qualche pezzo sta per cedere, se l’unità montata è difettosa, etc. Si tiene conto anche dei numeretti, com’è normale che sia, ma non alimentiamo la gara a chi è leggermente più performante dell’altro, dato che l’utilizzatore finale non noterà mai la differenza.

E gli altri?

Rispetto a soli cinque anni fa, molte testate hanno abbandonato i benchmark o si limitano a pubblicare esclusivamente il punteggio del componente testato, senza confronti. Comportamento che appoggiamo, inutile dirlo, dato che per noi è così da sempre. Quanti continuano a pubblicarli, lo fanno per tre ragioni principali. La prima è che l’utente medio e i fanboy pretendono i numeretti, anche quando non li capiscono. I benchmark, specie quelli ibrido-sintetici, vanno interpretati, non è sufficiente leggerli.

Molte volte i grafici pubblicati mostrano risultati strabilianti che non coincidono con il commento dello stesso autore della recensione. La seconda ragione è che le tabelle vengono riprese da altri siti, sui blog e sui forum. Per il posizionamento su Google è importante avere vagonate di link da altri siti e pubblicare i mega tabelloni è uno dei modi più semplici per essere citati. Il terzo motivo sono gli sponsor e lo vedremo meglio nel prossimo paragrafo.

Come ti influenzo l’esito di un test

Lo scorso anno girò una voce, confermata da diversi media, secondo la quale Intel (sempre lei) avrebbe inviato un’email a un nutrito gruppo di recensori, con l’invito a contattarli prima di scrivere dei nuovi processori AMD Ryzen. La notizia fece il giro del mondo, nessuno fu diffidato dal diffonderla e qualche testata ammise ingenuamente che è normale, che lo fanno tutti. La nostra pagina sul “Come funziona?”, dove parliamo di questo mondo, è lì da un pezzo e forse servirebbe un minimo di trasparenza da parte di tutti. Detto questo, bisogna tenere a mente che nessun PR, almeno via email, chiederà mai una recensione positiva o di parlar male della concorrenza. Il rischio di segnalazioni e multe salate sarebbe troppo elevato!

Linee guida per i recensori

I colossi, ma anche qualche colossino, sono soliti proporre delle linee guida alle testate. E, anche se è facile comprendere come il non seguirle possa portare a delle ripercussioni, ripetiamo che le linee sono proposte e non imposte. Queste linee guida sono presentate in modalità e formati differenti, a volte personali e altre volte indirizzate a delle testate selezionate/fidate. Qui non parliamo più solo di CPU o GPU o smartphone, vale per qualsiasi prodotto.

Il consiglio amichevole

È un’email, più lunga del solito, in cui l’amichevole PR consiglia come ottenere il massimo dal loro nuovo prodotto, invitando ad estendere all’utenza questi suggerimenti. È comune, poche volte realmente invadente e queste email capitano a tutti, pure a noi. Non sono vere e proprie linee guida ma del semplice “pierraggio” riguardante le caratteristiche principali del prodotto. Insomma roba più che lecita.

La raccomandazione sincera

I toni sono simili a quelli del consiglio amichevole ma si percepisce un po’ di distacco. L’amico è meno amico, è salito in cattedra e si raccomanda riguardo a ciò che gli farebbe piacere leggere:

Il nostro prodotto non ha rivali in questa cosa; Ricorda di pubblicare questo tipo di test; Preferiremmo che utilizzassi questo software; Se hai una *marca_di_scheda_madre* usala; Girala subito sull’overlock; Se usi queste impostazioni le foto vengono meglio, lo dico per te che poi devi pubblicarle; Sappiamo che ha questo problema ma sarà risolto a breve, inutile scriverlo; Sarebbe interessante un confronto tra questi tre prodotti concorrenti.

Quelli organizzati

In rarissimi casi si arriva a un vera e propria lista di cose da fare, allegata come documento Word o PDF. Per alcuni prodotti, la lista è accompagnata da altro materiale informativo, dove alcuni punti sono spiegati passo per passo. Insomma si è liberi di testare ma nel modo in cui ti viene detto di farlo. Questa pressione è esercitata nei confronti degli influencer sponsorizzati attraverso contratti molto dettagliati che includono penali qualora dovessero violare un embargo o parlare di questo materiale riservato. Anche loro, nonostante tutto, sono liberi di seguire la lista o meno. Di pubblicare la recensione o meno. Alla fine è sempre una scelta personale…

Cosa può influenzare un test?

Un sacco di cose!! Recensire una CPU senza disabilitare MultiCore Enhancement e simili significa già doparla. Sempre per le CPU, ricordiamo che valgono pochissimo nei benchmark dei giochi quando si alzano al massimo le impostazioni grafiche. Il video sul funzionamento di uno smartphone, fatto appena dopo un reset, non è rappresentativo della sua fluidità reale. Le foto con gli smartphone – quando pubblicate – andrebbero fatte sempre col “punta e scatta”, senza regolare le impostazioni. La stabilità di qualsiasi componente hardware non può essere giudicata semplicemente attraverso l’esecuzione dei benchmark. E comunque non può basarsi su poche ore di utilizzo. Lo stesso vale per i notebook. L’alimentatore utilizzato, se ne parla poco, influenza le prestazioni. In certi frangenti anche il tipo di dissipatore utilizzato o il modo in cui è applicata la pasta termica contano su quello #zerovirgola di un benchmark.

I test troppo tecnici non sono attendibili

Il sotto-paragrafo precedente potrebbe non finire mai. Il fatto sostanziale è che più una recensione scende nel tecnico e meno diventa attendibile. Più si perde nel fumo dei numeri e più AdBlock potrebbe interpretare l’intera recensione come una gigantesca pubblicità. Intendiamoci, alcuni test approfonditi sono anche belli da leggere. Prendiamo quelli degli alimentatori: test fantastici! Un sacco di numeretti, simbolini, sigle… Poi lo compri, dura sei mesi e ne passa altri tre in un centro di assistenza in Germania. Ma è stata una bella esperienza, no? I test servono, a chi recensisce però. Quei risultati andrebbero assimilati dal recensore e poi tradotti. Tradotti bene. Oggi assistiamo a tabelle infinite, un elenco di specifiche tecniche, e tre righe reali di recensione. Nei video è ancora peggio.

SSD, i più duri da testare

Degli alimentatori sarebbe sufficiente parlare della stabilità e poi aiutare il lettore a consultare l’etichetta, dopo averla verificata. Eppure sembrano i prodotti più difficili da recensire. Al contrario, degli SSD appaiono recensioni in ogni dove, con i soliti 2-3 benchmark di riferimento. SSD e HDD contengono i nostri dati, per questo dovrebbero essere i componenti meglio recensiti in assoluto. Quanto sono affidabili? Ha provato a rispondere a questa domanda TechReport, nel 2015, e la pelle d’oca durante la lettura è assicurata.

Infine è meglio non dimenticare che, con dei normalissimi test, un SSD da 500 euro arriverà a numeri da capogiro. Sul piano pratico invece ci sarebbe poca differenza rispetto a un normale SSD da 100 euro.

Temperature

Giocare con le temperature è un altro modo, semplice semplice, per influenzare i lettori. Da una decina d’anni vanno di moda i termometri a infrarossi, che fanno tanto PRO. Di solito sono quelli da dieci euro, ogni tanto se ne vede uno da 50. Il punto è che potrebbero essere anche da 200 e sarebbero ugualmente inutili se non tarati per il tipo di superficie. Le superfici presenti dentro un PC sono le peggiori da misurare con l’IR, vanno usate le sonde. E anche quel tipo di termometro andrebbe acquistato di buona qualità e tarato, non utilizzato così come arriva. Mostrare dell’attrezzatura inutile ha solo un obiettivo: ingannare i lettori e i PR inesperti.

Monitor

I monitor sono un’altra bella scocciatura per chi deve recensirli. In realtà, anche questa volta, non è affatto difficile farlo per il mercato consumer e per i videogiocatori, ben più complicato per chi lavora con la grafica. Ma c’è chi vuole i test complessi, i soliti numeretti e i grafici, così qualcosa di semplicissimo si trasforma in un gran numero di test eseguiti male e risultati sballati. L’unico sito che effettuava correttamente i test approfonditi era Xbitlabs. Che infatti ha chiuso. Niente sponsor per chi lavora bene!

Il resto

Fotocamere, televisori, router, tastiere… Quasi ogni categoria ha la sua sfilza di test tecnici raffazzonati. Che dire? Quando c’è da investire qualche migliaio di euro per un dispositivo professionale, può valere la pena di darsi ai test approfonditi, cercando anche qualcuno che li faccia correttamente. Per gli altri prodotti si torna al discorso del marketing e dello #zerovirgola. Le condizioni all’interno delle abitazioni non sono le stesse di un laboratorio, di un garage o di un ufficio. Non sono condizioni reali in scenari reali. E nessun redattore/influencer è in grado di testare realmente tutte le variabili. Vendono fumo.

Prodotti selezionati per i recensori

Tornando a parlare di influenze, questa volta indirette, sin da quando uscirono le prime recensioni su giornali e riviste si è diffusa l’abitudine di sottoporre al giudizio dei recensori solo prodotti selezionati. Esclusivi. Succede per tutti i prodotti che necessitano di un controllo qualità particolarmente certosino. Dalle auto ai componenti hardware di un PC finanche alle apparecchiature medicali proposte dai rappresentanti alle strutture. Ma quando si parla di die, c’è un’ulteriore fase di selezione, che interessa tutti i consumatori.

Binning

Una volta stampati i circuiti sulle fette di silicio, queste fette vengono tagliate in quei piccoli rettangolini che noi tutti conosciamo. Questi rettangolini possono essere i die dei processori, quelli delle GPU, quelli di un controller, finire sulla RAM, etc. Prima però di essere utilizzati è necessario, ovviamente, testarli. Infatti non tutti i die della fetta sono identici.

Chi ha ordinato i rettangolini stabilisce dei criteri secondo i quali dovranno essere classificati. Ora, dato che questo discorso interessa principalmente l’overclock, si pensa che gli unici criteri di giudizio siano le frequenze e i voltaggi tollerati: non è così. Tra i criteri abbiamo un corposo elenco di operazioni che il rettangolino dovrà essere in grado di svolgere.

Fixati e classificati

Quelli che non riescono a svolgere alcune operazioni vengono, se possibile, riparati. Infatti sui rettangolini possono essere presenti dei “componenti di riserva” da sbloccare in caso di difetti. A questo punto, finiti i test, avviene la classificazione. Le unità con troppi errori e quelle sotto lo standard minimo finiscono in fonderia. Le altre sono divise in base alle prestazioni. Praticamente l’intera fetta sarebbe composta dagli stessi identici die che dovrebbero avere le stesse prestazioni, ma c’è un alto indice di errore e solo pochi rettangolini vengono fuori perfetti.

Marketing

Quando si legge che una nuova scheda grafica ha la stessa GPU di un modello di fascia più alta ma con alcune caratteristiche rimosse, non è altro che una GPU imperfetta salvata dalla fonderia. E, no, non c’è modo di farla rendere quanto la gemellina più fortunata. Lo stesso vale per le CPU: l’architettura può essere la stessa ma se un modello è venduto a 100 e un altro a 600, significa che quello da 100 è venuto parecchio male e non è il caso di forzarlo troppo. Altro motivo per cui è bene pensarci diverse volte prima di lanciarsi con l’overclock. ;)

Silicon lottery

Eppure, più o meno direttamente, sono gli stessi produttori a spingere sul tasto dell’overclock. Lo fanno pretendendo la pubblicazione degli appositi test. Spiegando a chi deve recensire che «è il modello di fascia alta ma con clock più basso, magari alzandolo diventa uguale… *blink-blink*». Lo fanno in maniera palese, con i prodotti di fascia alta, i rettangolini perfetti, vendendoli come già overclockati, senza blocchi, etc. Il consumatore è così indirizzato ad acquistare qualcosa che *rischia* di essere migliore del prezzo pagato. Rischia, infatti, perché non è affatto detto.

Perfettamente imperfetti

La lotteria del silicone è così chiamata perché tutti i rettangolini sono diversi l’uno dall’altro. Nessun produttore effettua un’ulteriore selezione per garantire un’alta “overclockabilità”. In teoria i pezzi migliori dovrebbero essere anche i più stabili sotto overclock alti ma nessuno, senza testarli singolarmente e appositamente per questo scopo, può dire quanto.

Di solito si dovrebbe consigliare di farsi andare bene le specifiche con cui il prodotto è venduto, almeno per i primi due anni di garanzia ed eventuali estensioni. Invece il consiglio generale è di rischiare e scommettere, spendendo poi – nei fatti – di più. Fino a qualche anno fa si spingeva addirittura a riattivare i core disabilitati dai produttori poiché non avevano superato i test.

Oggi è impossibile farlo perché vengono disabilitati fisicamente (lo stesso vale per le unità di calcolo). Sì, c’è stato un periodo in cui guru da forum e influencer dicevano: compra questo modello così puoi attivare i core guasti (e tirare lo sciacquone).

I partner dei produttori non sono immuni

Mentre i tentativi di fix sono generalmente effettuati dai produttori, a occuparsi del binning sono i partner. Cioè quelli che andranno a montare i benedetti rettangolini sui propri prodotti. Migliaia di rettangolini vengono distesi su dei vassoi e viaggiano verso gli stabilimenti. Lì saranno piazzati sopra i circuiti stampati e testati, un centinaio per volta, per poi essere catalogati.

Anche i produttori di schede video incrociano le dita quando ricevono i vassoi da Nvidia o AMD, perché dal binning sapranno i clock di default. La capacità di overclock, invece, la conosceranno solo dopo aver assemblato la scheda video vera e propria.

Questo qualora decidessero di testarle una ad una, cosa che non fanno. Il famoso overclock di fabbrica è quello ragionevole, quello che – in base ai loro dati – i rettangolini di quella fascia dovrebbero reggere senza fondere nulla entro i 2-3 anni di garanzia. Se la scheda fonde dopo i tre anni: tanto meglio!

I partner dei produttori non sono immuni /2

Attenzione: i die scartati da un brand possono essere utilizzati da un altro! I vassoi con gli scarti tornano al produttore che, dopo aver emesso un rimborso parziale al partner, li vende nuovamente a chi ha pretese più basse.

Alcuni produttori, per proteggere il proprio prestigio, a questo punto levano il proprio marchio dai prodotti e apparirà quello del nuovo acquirente. Altri invece lo lasciano ma facendosi pagare un po’ di più. Ecco perché alcune cinesate hanno componenti di un certo prestigio ma non rendono minimamente quanto i prodotti di fascia più alta!

Cherry-picking

Ed eccoci finalmente all’argomento di inizio paragrafo! Questo termine è utilizzato per indicare una scelta selettiva. Nel nostro caso: la scelta che il produttore effettua quando invia i nuovi prodotti ai recensori. I prodotti, in linea di massima, sono divisi così: campioni di progettazione (engineering samples), campioni per la stampa (press samples o review samples), campioni limitati (golden samples) e quelli che troviamo nei negozi.

Campioni di progettazione

Potremmo definirli dei quasi-prototipi. Sono il frutto della pre-produzione e i destinatari sono solitamente le aziende partner del brand che utilizzano il prodotto come modello di riferimento per iniziare a lavorarci. È molto raro che questi prodotti finiscano in mano alla stampa o che vengano esposti nelle fiere. A volte, e in quantità limitatissima, sono spediti ai maggiori influencer per avere un primo parere, soprattutto in termini di design.

Quando avviene, di solito sono case per PC, headset o mouse (ma anche profumi, capi d’abbigliamento, etc. se vogliamo uscire dall’ambito tecnologico). Quando si tratta di processori e schede video, significa che la produzione reale è già avviata. Qualcosa si trova su eBay cercando “nome_brand + engineering sample”, tenendo presente che sono meno stabili e fuori da qualsiasi tipo di garanzia.

Campioni per la stampa

Sono prodotti solitamente identici a quelli presenti nei negozi che, al massimo, presentano un packaging diverso. Magari mancano di accessori o sono inviati in maniera del tutto spartana. Per alcuni brand l’invio dei campioni rappresenta una sorta di sponsorizzazione, che può interrompersi in caso di recensioni negative o se non si seguono le linee guida. Molti “usato, come nuovo” in vendita su eBay e piattaforme simili appartengono a questa categoria. Tali prodotti non sono sottoposti a nessun tipo di selezione.

Campioni limitati

I golden samples sono i prodotti perfetti. Sono verificati più volte e possono anche presentare un packaging diversificato, più lussureggiante. I golden sono inviati agli influencer il cui parere conta molto in un determinato ambito, (quasi) a prescindere dal numero di follower sui social. Ad esempio: uno youtuber con 2 milioni di iscritti, che si occupa più o meno di tutto ciò che è tecnologia, potrebbe ricevere un normale campione per la stampa di un nuovo paio di cuffie. Un altro youtuber, con “soli” 500 mila iscritti ma che si rivolge a un pubblico di audiofili, riceverà invece il golden sample (e una cornice per le linee guida ;) ).

Campioni limitati /2

Lo scorso anno fece discutere il caso di alcuni alimentatori SuperNova B3 brandizzati EVGA e prodotti da Super Flower. Da quanto è emerso, per voce degli stessi protagonisti, la EVGA avrebbe inviato a jonnyguru.com, punto di riferimento globale per le recensioni degli alimentatori, dei golden samples, privi di qualsivoglia problematica. Come fanno tutti insomma.

Il problema (loro) è che sempre più siti, proprio come fa RecensioniVere, non vanno più dietro ai giochi di qualche pessimo PR e acquistano per fatti loro i prodotti da recensire. Per la sfortuna di EVGA (e Super Flower) ad acquistare gli alimentatori è stato un colosso dell’informazione di settore: Tom’s Hardware.

Non solo gli alimentatori non hanno passato i test di TH, ma hanno mostrato gravi falle in fatto di sicurezza, con tanto di scintille! E quando TH ha chiesto alla EVGA dei campioni per ripetere i test, la risposta è stata, manco a dirlo: NO. E non è la prima volta che i prodotti di EVGA giocano col fuoco, nel 2016 ebbero problemi con le GTX 1070 e 1080.

Benvenuti nel mondo reale!

Dopo tutto quello che abbiamo esposto, a cosa servono più i test approfonditi? Test che, più di una volta, si sono dimostrati incapaci di replicare le condizioni reali d’utilizzo, diventando una sorta di benchmark sintetico alternativo. Più utile ai pappagalli social, per ripetere a memoria i risultati ed ergersi ad esperti, che a noi consumatori.

Qualcuno potrebbe polemizzare prendendo ad esempio il caso citato prima, poiché nemmeno noi testiamo le protezioni. Noi però i prodotti li usiamo, non li teniamo accesi un paio d’ore per poi rivenderli. Se un alimentatore è problematico, prima o poi darà problemi a chi tra di noi l’ha montato e gli alimentatori restano in commercio per tanti anni… Questo è il motivo per cui aggiorniamo sempre le recensioni quando ci sono problemi: avvisare tutti riguardo a un difetto che solo il reale utilizzatore può conoscere. Non solo, a volte suggeriamo anche come riparare un prodotto difettoso.

Tra linee guida e campioni limitati

Se il prodotto inviato deve essere testato in condizioni ottimali per la riuscita della recensione. Se, addirittura, questo prodotto può anche essere diverso da quello in commercio. Allora che cosa andiamo a leggere? Di quali benchmark dobbiamo parlare? Qual è la credibilità dei risultati dei test? A noi, come sarà successo a molti lettori, le poltrone da ufficio da 100 euro si sono rotte. Su Youtube è pieno di gente entusiasta della propria. Viviamo forse in un mondo parallelo? Anni fa abbiamo recensito una Gigabyte con problemi di design evidenti che però abbiamo potuto mettere in risalto solo noi, perché era un acquisto e non una specie di mazzetta del PR.

Tra produttori reali, adesivi e tagli

L’esternalizzazione è un problema. Noi leggiamo un marchio, ma il produttore è spesso un altro. Cerchiamo informazioni sul web e a volte queste sono disponibili, ma anche il partner esterno può a sua volta incaricare un altro. A quel punto le tracce si perdono. Spesso si diffondono voci secondo le quali un prodotto con una determinata sigla, o un “made in” diverso, sarebbe di qualità superiore. Altrettanto spesso quelle voci sono assolutamente vere.

I chip, le batterie, i condensatori, i circuiti stampati, ogni singolo componente dei dispositivi in nostro possesso possono essere stati costruiti in sub-sub-sub-appalto. E più aumentano i “sub”, più si riducono i costi, peggiore sarà il risultato in termini di efficienza, stabilità e durata. Sarebbe il momento di avere una legge che obblighi i marchi a dichiarare tutto ciò. I campioni limitati a volte non sono assemblati in fabbrica ma in laboratorio, e poi in negozio compriamo i sub-sub-sub-sub-sub…

Che ci possiamo fare? Siamo old…

La cosa più importante, quando si sparano i numeri dei benchmark, sarebbe capire cosa si sta recensendo: la scheda madre? La CPU? Un gioco? E cercare di focalizzarsi su quello.

Per noi RV è un hobby, non ci guadagniamo e non ci perdiamo. Dieci anni fa c’erano pochissimi siti di settore in Italia e un paio di influencer. Oggi sono molti di più ma la qualità è peggiorata nella stessa proporzione. Tra redattori del settore a volte si parla, si scambiano email, e alcune delle cause dei peggioramenti le abbiamo riportate nell’articolo. L’aver impostato un rapporto paritario con il lettore, da conversazione tra amici, tra coetanei, ha alzato l’età media del sito e in qualche modo abbiamo scampato gli annessi e connessi ai target giovanili. Resteremo vecchietti tra i vecchietti, a noi sta bene. ;)

P.S. Il brand di alimentatori Seasonic, per essere al di sopra di ogni sospetto, ha cominciato a spedire i suoi campioni attraverso Amazon. Ci sembra un buon punto di partenza, in attesa di vederlo fare anche verso chi non è sponsorizzato.

Di Recensioni Vere

RecensioniVere non è un sito a scopo di lucro, né un volto da intervistare o una comunità da manipolare. È un nobile intento, un virus positivo, un'attitudine che speriamo diventi una tendenza. È Internet come dovrebbe essere: un piccolo passo verso il miglioramento che ciascuno di noi può compiere.