Google al momento detiene uno dei motori di ricerca utilizzati al mondo: ovvero Google Chrome, che è riuscito nel corso del tempo a sbaragliare i suoi concorrenti come Internet Explorer, Firefox e molti altri. Tuttavia per quanto sia il più usato, non necessariamente questo significa che sia anche il migliore o che comunque le prestazioni siano le migliori: infatti stando a un recente studio accademico condotto in Germania, la qualità dei risultati delle ricerche fatte con esso e anche con altri servizi di Google è peggiorato sensibilmente.
Lo studio in breve
Come già accennato nel paragrafo introduttivo dell’articolo, lo studio è stato condotto in Germania: per l’esattezza da parte dell’Università di Lipsia, della Bauhaus-Universität di Weimar e dal ScaDS.AI (Center for Scalable Data Analytics and Artificial Intelligence) con sede sempre a Lipsia. Lo studio ha preso in esame ben 7392 recensioni fatte nel corso dell’anno per quanto concerne Google, Bing e DuckDuckGo. Le motivazioni che hanno portato a un impoverimento e soprattutto a un peggioramento delle ricerche fatte tramite Google sono molteplici, ma sviscereremo il tutto nei successivi paragrafi.
Un bel problema, sotto ogni singolo punto di vista
Stando a quanto emerso dallo studio, il peggioramento dei risultati delle ricerche tramite l’uso dei servizi di Google è da attribuire, principalmente, al quantitativo immenso di contenuti di bassa qualità, riguardanti sopratutto i prodotti e le loro caratteristiche. Questa pratica ha letteralmente affossato qualsivoglia tipologia di informazione rilevante o utile nella ricerca impedendo che queste comparissero nella schermata successiva alla ricerca. Essenzialmente, parlando potabile, la mole di informazioni di bassa qualità è stata così elevata che è stato quasi impossibile individuare le informazioni utili, favorendo quelle più inutili o volutamente spam.
Ma come mai è avvenuto tutto ciò? Essenzialmente a causa della costante lotta da parte dei siti per prevalere nelle SEO. Appunto per questo considerando che vengono riversati sempre gli stessi contenuti, questi sono stati in seguito riproposti a iosa, in una maniera che definire continua è riduttivo. Questo va a danneggiare pesantemente la qualità della ricerca facendo sì che i parametri si fossilizzino su determinati elementi, andando così a escludere gli altri e soprattutto andando a rallentare la loro rimodulazione (che favorisce una certa varietà nelle informazioni ottenute dalle ricerche).
A peggiorare la situazione ci pensano anche le IA, siccome buona parte dei contenuti che hanno portato a questa involuzione sono proprio stati realizzati con l’uso di questi strumenti. Non a caso, basta letteralmente dare degli input testuali e poche informazioni per far sì che vengano realizzati i suddetti contenuti che possono essere così prodotti in maniera industriale. Si tratta davvero di una bella gatta da pelare per Google, perché da ciò ne va la qualità stessa della possibilità delle persone di informarsi tramite l’uso della rete.
Lo studio ha comunque affermato che Google abbia preso alcune contromisure per arginare il fenomeno, ma in ogni caso questo non è abbastanza, e i ricercatori hanno anche affermato che dovrebbe esserci maggiore interesse per quanto concerne la proliferazione dei suddetti contenuti.