<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Comentarios en: Auditoría SEO con OnCrawl	</title>
	<atom:link href="https://kico.es/auditoria-seo-con-oncrawl/feed/" rel="self" type="application/rss+xml" />
	<link>https://kico.es/auditoria-seo-con-oncrawl/</link>
	<description>Especialista en posicionamiento web; desarrollo amigable a buscadores.</description>
	<lastBuildDate>Wed, 04 Mar 2020 11:28:42 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=5.8</generator>
	<item>
		<title>
		Por: kico		</title>
		<link>https://kico.es/auditoria-seo-con-oncrawl/#comment-1651</link>

		<dc:creator><![CDATA[kico]]></dc:creator>
		<pubDate>Wed, 04 Mar 2020 11:28:42 +0000</pubDate>
		<guid isPermaLink="false">http://kico.es/?p=2278#comment-1651</guid>

					<description><![CDATA[En respuesta a &lt;a href=&quot;https://kico.es/auditoria-seo-con-oncrawl/#comment-1649&quot;&gt;Luis&lt;/a&gt;.

Tienes un free trial en https://app.oncrawl.com/trial Es cara más que por varios proyectos si tienes muchas urls a crawlear al mes. Y comparada con otras similares es de las más económicas.]]></description>
			<content:encoded><![CDATA[<p>En respuesta a <a href="https://kico.es/auditoria-seo-con-oncrawl/#comment-1649">Luis</a>.</p>
<p>Tienes un free trial en <a href="https://app.oncrawl.com/trial" rel="nofollow ugc">https://app.oncrawl.com/trial</a> Es cara más que por varios proyectos si tienes muchas urls a crawlear al mes. Y comparada con otras similares es de las más económicas.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Por: Luis		</title>
		<link>https://kico.es/auditoria-seo-con-oncrawl/#comment-1649</link>

		<dc:creator><![CDATA[Luis]]></dc:creator>
		<pubDate>Mon, 02 Mar 2020 17:29:09 +0000</pubDate>
		<guid isPermaLink="false">http://kico.es/?p=2278#comment-1649</guid>

					<description><![CDATA[Está chula la herramienta, yo la probé en su día y mola sobre todo para tener centralizada toda la información que necesitas para SEO (incluyendo las páginas que Google rastrea más de tu sitio y demás). Pero es un poco cara cuando tienes varios proyectos. ¿Tienes algún descuento para comprarla?]]></description>
			<content:encoded><![CDATA[<p>Está chula la herramienta, yo la probé en su día y mola sobre todo para tener centralizada toda la información que necesitas para SEO (incluyendo las páginas que Google rastrea más de tu sitio y demás). Pero es un poco cara cuando tienes varios proyectos. ¿Tienes algún descuento para comprarla?</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Por: Miguel Pascual		</title>
		<link>https://kico.es/auditoria-seo-con-oncrawl/#comment-1151</link>

		<dc:creator><![CDATA[Miguel Pascual]]></dc:creator>
		<pubDate>Tue, 12 Jun 2018 10:36:46 +0000</pubDate>
		<guid isPermaLink="false">http://kico.es/?p=2278#comment-1151</guid>

					<description><![CDATA[En respuesta a &lt;a href=&quot;https://kico.es/auditoria-seo-con-oncrawl/#comment-1150&quot;&gt;Marisa&lt;/a&gt;.

Gracias por comentar.
Si no has lanzado la web poner el robots.txt que evite la visita de google a esas páginas es lo correcto. Si la web ya está lanzada y Google ha indexado todas esas páginas de think content lo primero que tienes que hacer es conseguir desindexarlas (con meta robots no index o desde GSC). Y una vez desindexadas las bloqueas también en el robots.txt para ahorrar crawl budget.]]></description>
			<content:encoded><![CDATA[<p>En respuesta a <a href="https://kico.es/auditoria-seo-con-oncrawl/#comment-1150">Marisa</a>.</p>
<p>Gracias por comentar.<br />
Si no has lanzado la web poner el robots.txt que evite la visita de google a esas páginas es lo correcto. Si la web ya está lanzada y Google ha indexado todas esas páginas de think content lo primero que tienes que hacer es conseguir desindexarlas (con meta robots no index o desde GSC). Y una vez desindexadas las bloqueas también en el robots.txt para ahorrar crawl budget.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Por: Marisa		</title>
		<link>https://kico.es/auditoria-seo-con-oncrawl/#comment-1150</link>

		<dc:creator><![CDATA[Marisa]]></dc:creator>
		<pubDate>Tue, 12 Jun 2018 09:46:51 +0000</pubDate>
		<guid isPermaLink="false">http://kico.es/?p=2278#comment-1150</guid>

					<description><![CDATA[Está bien como hacer el crawler con el robots virtual pero si lo tienes mal ¿como solucionas el problema? ¿poniendo un robots.txt igual que has subido como virtual?]]></description>
			<content:encoded><![CDATA[<p>Está bien como hacer el crawler con el robots virtual pero si lo tienes mal ¿como solucionas el problema? ¿poniendo un robots.txt igual que has subido como virtual?</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
