Compresion NTFS

11/12/2008 - 20:28 por Pablo A. Allois | Informe spam
Buenas tardes,

Les quiero consultar si tienen alguna documentacion tecnica acerca del
funcionamiento de la Compresion NTFS.

Estoy evaluando el impacto de performance al utilizar Compresion NTFS en un
FileServer y no me termina de quedar claro como trabaja al escribir y leer
archivos.

La duda puntual es acerca de que se hace al leer un archivo comprimido... la
documentacion que encontre explica que descomprime el archivo y luego se
hace la lectura pero no explica si una vez descomprimido el archivo se
escribe en el disco, en memoria paginable o donde.

Hasta ahora tengo claro que se aumenta la utilizacion de CPU ... pero quiero
averiguar si tambien voy a tener un impacto en el disco con lecturas y
escrituras extras.



Saludos!

Preguntas similare

Leer las respuestas

#1 Guillermo Delprato [MS-MVP]
15/12/2008 - 10:15 | Informe spam
Muy difícil de pronosticar ;-)
Hay opiniones contradictorias, porque depende mucho de la velocidad de
procesador y también de acceso a disco

Según la documentación se descomprime en RAM. Si esto luego se pagina a
disco o no, dependerá del uso de RAM.

En algunos casos, con archivos muy grandes (máquinas virtuales por ejemplo)
hay algunos que han reportado hasta mejoras de rendimiento. Yo supongo que
los que tienen discos muy lentos, y procesadores rápidos.

Personalmente yo he hecho la prueba, y otros también, y en cambio detectamos
fuertes caidas de rendimiento.


Guillermo Delprato
MVP - MCT - MCSE
Buenos Aires, Argentina
http://w2k8-server.spaces.live.com

Este mensaje se proporciona "como está" sin garantías de ninguna clase, ni
otorga ningún derecho. Ud. asume los riesgos.
This posting is provide "as is" with no warranties and confers no rights.
You assume all risk for your use.
_____________________


"Pablo A. Allois" wrote in message
news:
Mostrar la cita
#2 Pablo A. Allois
24/12/2008 - 18:25 | Informe spam
Gracias Guillermo por la respuesta.
Ahora me quedo mas tranquilo.

Esto es parte de afinar un fileserver que actualmente tiene 310 Gb en
15.000.000 de archivos, con una estructura grande de carpetas.

Estoy pensando en "vos alta" con el supuesto de que tengo mas operaciones
de lectura ... decime que opinas:
Si el archivo ocupa menos de un cluster size y lo compacto, al escribirse no
tendre muchas ventajas, de performance, todo lo contrario.
Si el archivo ocupa descompactado 10 clusters size y compactado ocupa 4 ...
si y solo si la descompactacion al leerlo no se hace en disco ni en memoria
paginable ... deberia ganar performance cuando cuello es el disco ...
consumiendo mas CPU.

Por lo tanto, una buena combinacion de tunning seria:
- Poner mas memoria al server
- Sacar el archivo de paginacion del disco
- Compactar solamente los archivos de mas 10 clusters size ( por
ejemplo )

Esto en teoria deberia mejorar el rendimiento ... no ?


Saludos!


"Guillermo Delprato [MS-MVP]"
wrote in message news:
Mostrar la cita
#3 Guillermo Delprato [MS-MVP]
30/12/2008 - 11:46 | Informe spam
Si el archivo ocupa sólo un cluster, como dices, no tiene ningún sentido
compactarlo ya que seguirá ocupando un cluster. Sólo se sobrecargará el uso
de procesador.

Originalmente, el uso de archivos compactados , se recomendaba solamente
para aquellos que se accedían en forma poco habitual.

Luego, por pruebas en la práctica algunos encontraron el tema de mejora de
rendimiento. Otro no, como en mi caso.

Creo que no queda otra que el método de "prueba y error" porque depende
mucho del hardware y del tipo de archivo, ya que muchos tipos de archivos
son "incompresibles" (PDFs por ejemplo)


Guillermo Delprato
MVP - MCT - MCSE
Buenos Aires, Argentina
http://w2k8-server.spaces.live.com

Este mensaje se proporciona "como está" sin garantías de ninguna clase, ni
otorga ningún derecho. Ud. asume los riesgos.
This posting is provide "as is" with no warranties and confers no rights.
You assume all risk for your use.
_____________________


"Pablo A. Allois" wrote in message
news:%
Mostrar la cita
Ads by Google
Search Busqueda sugerida