<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Google Search Console - Robots.txt e filtri in disallow]]></title><description><![CDATA[<hr />
]]></description><link>https://connect.gt/topic/251031/google-search-console-robots-txt-e-filtri-in-disallow</link><generator>RSS for Node</generator><lastBuildDate>Sun, 12 Apr 2026 02:42:34 GMT</lastBuildDate><atom:link href="https://connect.gt/topic/251031.rss" rel="self" type="application/rss+xml"/><pubDate>Sun, 18 Feb 2024 13:27:28 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to Google Search Console - Robots.txt e filtri in disallow on Sun, 18 Feb 2024 13:27:17 GMT]]></title><description><![CDATA[<p dir="auto"><a class="plugin-mentions-user plugin-mentions-a" href="https://connect.gt/uid/182030">@fcarlo93</a> ha detto in <a href="/post/1311593">Google Search Console - Robots.txt e filtri in disallow</a>:</p>
<blockquote>
<p dir="auto">Facendo delle ricerche ho inteso che questo fenomeno è causato dalla direttiva del robots.txt che non permette la lettura della pagina, quindi non potendo leggere la direttiva noindex Google sta "riscoprendo"(?) e indicizzando queste pagine che però non può scansionare.</p>
</blockquote>
<p dir="auto">Esatto, il problema è qui. Devi metterle noindex. Poi quando le ha viste tutte non indicizzabili metti il Disallow nel robots.txt.</p>
]]></description><link>https://connect.gt/post/1311595</link><guid isPermaLink="true">https://connect.gt/post/1311595</guid><dc:creator><![CDATA[sermatica]]></dc:creator><pubDate>Sun, 18 Feb 2024 13:27:17 GMT</pubDate></item></channel></rss>