Caché en asp.net 1.1

10/01/2006 - 16:31 por Vyacheslav Popov | Informe spam
Hola a todos. Estoy echo un lío...

Tengo una Web donde hay paginas que no quiero que se almacenan en caché de
ningún tipo. Para ser exacto estas paginas son de "noticias" y por lo tanto,
siempre han de estar actualizados.

Mis dudas son:
1. ¿Tiene sentido establecer el tiempo de expiración de caché en cero o
simplemente no especificar nada?
2. ¿Existe un valor por defecto de expiración de caché?, si es así ¿cual es?
3. ¿Como afecta este tiempo establecido a las visitas de los buscadores?
4. ¿Que tengo que hacer para que los buscadores actualicen sus índices con
más frecuencia para estas páginas?

Gracias de antemano.

Saludos.
Popov

Preguntas similare

Leer las respuestas

#6 Vyacheslav Popov
11/01/2006 - 17:10 | Informe spam
Tengo una solucion para SiteMap, que acabo de crear
http://www.binslon.com/software/des...o.php?id=7
Mi pagina web esta echa una kk a ver si encuentro tiempo y la rehago...
;)

Las ficheros generados son validos segun el esquema de google. Pero no se si
va a funcionar.

Y lo de cache... creo que voy a poner lo siguiente:

Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams["id"] = true;

y a ver lo que pasa

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Creo que esa podría ser una solución, al menos para Google.
Y si lo creas en formato RSS no tienes que comprimirlo ni nada.
El tema de los parámetros en teoría solo afecta si tienes un link en otra
página que use esos parámetros, ya que el robot solo buscará la página de
forma "normal".

Con respecto a los robots, el fichero robots.txt creo que solo se usa para
"no permitir" que examine ciertos directorios o páginas, peor no para que
busque alguna en concreto.

En fin... si aciertas con la solución... acuérdate de compartirla ;-))))

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/

"Vyacheslav Popov" escribió en el mensaje
news:
Respecto a SiteMap de google, ¿crees que sería conveniente incluir todas
las noticias (actuales y caducadas) en mi caso? acabo de leer que permite
hasta 50.000 enlaces por cada sitemap.

"Vyacheslav Popov" escribió en el mensaje
news:
Hola Guillermo, es un honor "¡guille en persona!"

Para empezar mi pagina si que tiene parámetros para ver detalles de una
noticia. La pagina en cuestión se llama "noticias.aspx" donde aparecen
las noticias "actuales", digo actuales, porque se caducan y ya no se
muestran en la pagina principal. Sin embargo sí se puede acceder a
cualquier noticia con un parámetro "noticias.aspx?id=5" aunque esté
caducada. Con esta funcionalidad la pagina se puede cambiar con mucha
frecuencia, las noticias que se caducan y las que se publican. Por esta
razón me interesa mucho que todas las noticias estén indexadas en algún
buscador, sobre todo porque para cada noticia hay posibilidad de enviar
"comentarios".

He pensado poner algo así:

<%@ OutputCache Duration="60" VaryByParam="id" %>
o
Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams = "id";

Que por cierto no se que es más aconsejable.


Respecto a Sitemap, no estoy seguro de como va eso. Yo tengo generada un
mapa web de forma automática que refleja todos los cambios con listas
sin orden "<ul>" en forma de un árbol. Que por cierto, también debería
de caducarse, incluso con más frecuencia.
Supongo que es algo mejor que un simple documento txt. Pero he leído que
hay que comprimirlo con, preferiblemente, gzip antes de enviarlo a
google. ¿Esto es cierto?. ¿Le puede enviar mi mapaweb.aspx?
También dispongo de RSS para noticias.
¿Y si le pongo un fichero "robot.txt" con las direcciones de paginas que
quiero que visite con más frecuencia?

Cualquier consejo me será útil.

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Revisando lo del Sitemap de Google, he visto que se puden incluir desde
RSS hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/














Respuesta Responder a este mensaje
#7 Guillermo guille
12/01/2006 - 05:54 | Informe spam
Lo del Sitemap ... indiqué que usara un RSS con todo el contenido de mi
sitio, pero ... creo que me he pasado, lo he tenido que reducir de los más
de 500 KB a menos de 200, de todas formas no influye en los robots de
Google.

Ya contarás si ese cambio en la caché te funciona.

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/

"Vyacheslav Popov" escribió en el mensaje
news:
Tengo una solucion para SiteMap, que acabo de crear
http://www.binslon.com/software/des...o.php?id=7
Mi pagina web esta echa una kk a ver si encuentro tiempo y la
rehago... ;)

Las ficheros generados son validos segun el esquema de google. Pero no se
si va a funcionar.

Y lo de cache... creo que voy a poner lo siguiente:

Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams["id"] = true;

y a ver lo que pasa

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Creo que esa podría ser una solución, al menos para Google.
Y si lo creas en formato RSS no tienes que comprimirlo ni nada.
El tema de los parámetros en teoría solo afecta si tienes un link en otra
página que use esos parámetros, ya que el robot solo buscará la página de
forma "normal".

Con respecto a los robots, el fichero robots.txt creo que solo se usa
para "no permitir" que examine ciertos directorios o páginas, peor no
para que busque alguna en concreto.

En fin... si aciertas con la solución... acuérdate de compartirla ;-))))

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/

"Vyacheslav Popov" escribió en el mensaje
news:
Respecto a SiteMap de google, ¿crees que sería conveniente incluir todas
las noticias (actuales y caducadas) en mi caso? acabo de leer que
permite hasta 50.000 enlaces por cada sitemap.

"Vyacheslav Popov" escribió en el mensaje
news:
Hola Guillermo, es un honor "¡guille en persona!"

Para empezar mi pagina si que tiene parámetros para ver detalles de una
noticia. La pagina en cuestión se llama "noticias.aspx" donde aparecen
las noticias "actuales", digo actuales, porque se caducan y ya no se
muestran en la pagina principal. Sin embargo sí se puede acceder a
cualquier noticia con un parámetro "noticias.aspx?id=5" aunque esté
caducada. Con esta funcionalidad la pagina se puede cambiar con mucha
frecuencia, las noticias que se caducan y las que se publican. Por esta
razón me interesa mucho que todas las noticias estén indexadas en algún
buscador, sobre todo porque para cada noticia hay posibilidad de enviar
"comentarios".

He pensado poner algo así:

<%@ OutputCache Duration="60" VaryByParam="id" %>
o
Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams = "id";

Que por cierto no se que es más aconsejable.


Respecto a Sitemap, no estoy seguro de como va eso. Yo tengo generada
un mapa web de forma automática que refleja todos los cambios con
listas sin orden "<ul>" en forma de un árbol. Que por cierto, también
debería de caducarse, incluso con más frecuencia.
Supongo que es algo mejor que un simple documento txt. Pero he leído
que hay que comprimirlo con, preferiblemente, gzip antes de enviarlo a
google. ¿Esto es cierto?. ¿Le puede enviar mi mapaweb.aspx?
También dispongo de RSS para noticias.
¿Y si le pongo un fichero "robot.txt" con las direcciones de paginas
que quiero que visite con más frecuencia?

Cualquier consejo me será útil.

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Revisando lo del Sitemap de Google, he visto que se puden incluir
desde RSS hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/


















email Siga el debate Respuesta Responder a este mensaje
Ads by Google
Help Hacer una pregunta AnteriorRespuesta Tengo una respuesta
Search Busqueda sugerida