Caché en asp.net 1.1

10/01/2006 - 16:31 por Vyacheslav Popov | Informe spam
Hola a todos. Estoy echo un lío...

Tengo una Web donde hay paginas que no quiero que se almacenan en caché de
ningún tipo. Para ser exacto estas paginas son de "noticias" y por lo tanto,
siempre han de estar actualizados.

Mis dudas son:
1. ¿Tiene sentido establecer el tiempo de expiración de caché en cero o
simplemente no especificar nada?
2. ¿Existe un valor por defecto de expiración de caché?, si es así ¿cual es?
3. ¿Como afecta este tiempo establecido a las visitas de los buscadores?
4. ¿Que tengo que hacer para que los buscadores actualicen sus índices con
más frecuencia para estas páginas?

Gracias de antemano.

Saludos.
Popov

Preguntas similare

Leer las respuestas

#1 Guillermo guille
11/01/2006 - 02:59 | Informe spam
Creo que el valor predeterminado es cero, que significa: infinito, por
tanto, si queires que dure poco, deberás usar un valor, aunque no se si
sería recomendable valores inferiores a un minuto... todo dependerá de cuán
rápido actualices esa página.

En cuanto a los robots de los buscadores, en teoría harán una petición a esa
página y si está en caché esa será la que se lleven, de todas formas si
modificas el contenido de esa página con frecuencia será raro que se lleven
una muy vieja.
El problema es que uses parámetros para esa página en cuestión, y si esos
parámetros dependen de cuando publiques cosas nuevas, en ese caso el
buscador seguramente mantendrá páginas antiguas.

Algunos buscadores (en realidad solo se que lo hace Google) te permiten
mantener un historial de páginas, de forma que la revisión sea más efectiva
que una "búsqueda aleatoria", el problema es que, al menos Google, lo tienen
pensado para páginas php y servidores no "Windows", o al menos eso es lo que
me pareció...
http://services.google.com/marketin...ITEMAPS-ES

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/

"Vyacheslav Popov" escribió en el mensaje
news:
Hola a todos. Estoy echo un lío...

Tengo una Web donde hay paginas que no quiero que se almacenan en caché de
ningún tipo. Para ser exacto estas paginas son de "noticias" y por lo
tanto, siempre han de estar actualizados.

Mis dudas son:
1. ¿Tiene sentido establecer el tiempo de expiración de caché en cero o
simplemente no especificar nada?
2. ¿Existe un valor por defecto de expiración de caché?, si es así ¿cual
es?
3. ¿Como afecta este tiempo establecido a las visitas de los buscadores?
4. ¿Que tengo que hacer para que los buscadores actualicen sus índices con
más frecuencia para estas páginas?

Gracias de antemano.

Saludos.
Popov

Respuesta Responder a este mensaje
#2 Guillermo guille
11/01/2006 - 03:46 | Informe spam
Revisando lo del Sitemap de Google, he visto que se puden incluir desde RSS
hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/
Respuesta Responder a este mensaje
#3 Vyacheslav Popov
11/01/2006 - 09:57 | Informe spam
Hola Guillermo, es un honor "¡guille en persona!"

Para empezar mi pagina si que tiene parámetros para ver detalles de una
noticia. La pagina en cuestión se llama "noticias.aspx" donde aparecen las
noticias "actuales", digo actuales, porque se caducan y ya no se muestran en
la pagina principal. Sin embargo sí se puede acceder a cualquier noticia con
un parámetro "noticias.aspx?id=5" aunque esté caducada. Con esta
funcionalidad la pagina se puede cambiar con mucha frecuencia, las noticias
que se caducan y las que se publican. Por esta razón me interesa mucho que
todas las noticias estén indexadas en algún buscador, sobre todo porque para
cada noticia hay posibilidad de enviar "comentarios".

He pensado poner algo así:

<%@ OutputCache Duration="60" VaryByParam="id" %>
o
Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams = "id";

Que por cierto no se que es más aconsejable.


Respecto a Sitemap, no estoy seguro de como va eso. Yo tengo generada un
mapa web de forma automática que refleja todos los cambios con listas sin
orden "<ul>" en forma de un árbol. Que por cierto, también debería de
caducarse, incluso con más frecuencia.
Supongo que es algo mejor que un simple documento txt. Pero he leído que hay
que comprimirlo con, preferiblemente, gzip antes de enviarlo a google. ¿Esto
es cierto?. ¿Le puede enviar mi mapaweb.aspx?
También dispongo de RSS para noticias.
¿Y si le pongo un fichero "robot.txt" con las direcciones de paginas que
quiero que visite con más frecuencia?

Cualquier consejo me será útil.

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Revisando lo del Sitemap de Google, he visto que se puden incluir desde
RSS hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/


Respuesta Responder a este mensaje
#4 Vyacheslav Popov
11/01/2006 - 10:26 | Informe spam
Respecto a SiteMap de google, ¿crees que sería conveniente incluir todas las
noticias (actuales y caducadas) en mi caso? acabo de leer que permite hasta
50.000 enlaces por cada sitemap.

"Vyacheslav Popov" escribió en el mensaje
news:
Hola Guillermo, es un honor "¡guille en persona!"

Para empezar mi pagina si que tiene parámetros para ver detalles de una
noticia. La pagina en cuestión se llama "noticias.aspx" donde aparecen las
noticias "actuales", digo actuales, porque se caducan y ya no se muestran
en la pagina principal. Sin embargo sí se puede acceder a cualquier
noticia con un parámetro "noticias.aspx?id=5" aunque esté caducada. Con
esta funcionalidad la pagina se puede cambiar con mucha frecuencia, las
noticias que se caducan y las que se publican. Por esta razón me interesa
mucho que todas las noticias estén indexadas en algún buscador, sobre todo
porque para cada noticia hay posibilidad de enviar "comentarios".

He pensado poner algo así:

<%@ OutputCache Duration="60" VaryByParam="id" %>
o
Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams = "id";

Que por cierto no se que es más aconsejable.


Respecto a Sitemap, no estoy seguro de como va eso. Yo tengo generada un
mapa web de forma automática que refleja todos los cambios con listas sin
orden "<ul>" en forma de un árbol. Que por cierto, también debería de
caducarse, incluso con más frecuencia.
Supongo que es algo mejor que un simple documento txt. Pero he leído que
hay que comprimirlo con, preferiblemente, gzip antes de enviarlo a google.
¿Esto es cierto?. ¿Le puede enviar mi mapaweb.aspx?
También dispongo de RSS para noticias.
¿Y si le pongo un fichero "robot.txt" con las direcciones de paginas que
quiero que visite con más frecuencia?

Cualquier consejo me será útil.

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Revisando lo del Sitemap de Google, he visto que se puden incluir desde
RSS hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/






Respuesta Responder a este mensaje
#5 Guillermo guille
11/01/2006 - 14:51 | Informe spam
Creo que esa podría ser una solución, al menos para Google.
Y si lo creas en formato RSS no tienes que comprimirlo ni nada.
El tema de los parámetros en teoría solo afecta si tienes un link en otra
página que use esos parámetros, ya que el robot solo buscará la página de
forma "normal".

Con respecto a los robots, el fichero robots.txt creo que solo se usa para
"no permitir" que examine ciertos directorios o páginas, peor no para que
busque alguna en concreto.

En fin... si aciertas con la solución... acuérdate de compartirla ;-))))

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/

"Vyacheslav Popov" escribió en el mensaje
news:
Respecto a SiteMap de google, ¿crees que sería conveniente incluir todas
las noticias (actuales y caducadas) en mi caso? acabo de leer que permite
hasta 50.000 enlaces por cada sitemap.

"Vyacheslav Popov" escribió en el mensaje
news:
Hola Guillermo, es un honor "¡guille en persona!"

Para empezar mi pagina si que tiene parámetros para ver detalles de una
noticia. La pagina en cuestión se llama "noticias.aspx" donde aparecen
las noticias "actuales", digo actuales, porque se caducan y ya no se
muestran en la pagina principal. Sin embargo sí se puede acceder a
cualquier noticia con un parámetro "noticias.aspx?id=5" aunque esté
caducada. Con esta funcionalidad la pagina se puede cambiar con mucha
frecuencia, las noticias que se caducan y las que se publican. Por esta
razón me interesa mucho que todas las noticias estén indexadas en algún
buscador, sobre todo porque para cada noticia hay posibilidad de enviar
"comentarios".

He pensado poner algo así:

<%@ OutputCache Duration="60" VaryByParam="id" %>
o
Response.Cache.SetExpires(DateTime.Now.AddMinutes(1));
Response.Cache.SetCacheability(HttpCacheability.Private);
Response.Cache.VaryByParams = "id";

Que por cierto no se que es más aconsejable.


Respecto a Sitemap, no estoy seguro de como va eso. Yo tengo generada un
mapa web de forma automática que refleja todos los cambios con listas sin
orden "<ul>" en forma de un árbol. Que por cierto, también debería de
caducarse, incluso con más frecuencia.
Supongo que es algo mejor que un simple documento txt. Pero he leído que
hay que comprimirlo con, preferiblemente, gzip antes de enviarlo a
google. ¿Esto es cierto?. ¿Le puede enviar mi mapaweb.aspx?
También dispongo de RSS para noticias.
¿Y si le pongo un fichero "robot.txt" con las direcciones de paginas que
quiero que visite con más frecuencia?

Cualquier consejo me será útil.

Saludos.

"Guillermo 'guille'" escribió en el mensaje
news:%
Revisando lo del Sitemap de Google, he visto que se puden incluir desde
RSS hasta ficheros .txt para el tema de "seguimiento"

Nos vemos.
Guillermo
Microsoft VB MVP desde 1997
Mentor Asociado de Solid Quality Learning Iberoamericana

Te recuerdo que puedes entrar en mi sitio desde:
http://www.elguille.info/ y http://www.mundoprogramacion.com/
Los foros en: http://foros.elguille.info/










Respuesta Responder a este mensaje
Ads by Google
Help Hacer una preguntaSiguiente Respuesta Tengo una respuesta
Search Busqueda sugerida