DFS

27/12/2005 - 16:52 por Edu | Informe spam
Necesitaría saber si es posible migrar la estructura de un servidor de
archivos a una solución con DFS en un server 2003 standard edition.

La estructura existente es mas o menos la siguiente:
folder compartido 1 (1500 archivos y 200 subfolders) 82 mb
folder compartido 2 (7000 archivos y 10000 subfolders) 16 gb
folder compartido 3 (12000 archivos y 1500 subfolders) 3 gb
folder compartido 4 (12000 archivos y 500 subfolders) 1.5 gb
folder compartido 5 (30000 archivos y 2000 subfolders) 4.5 gb
folder compartido 6 (20000 archivos y 1000 subfolders) 5.3 gb

Dentro de cada folder puede haber mas comparticiones, y luego a los usuarios
se les mapean las carpetas requeridas con un script cuando se logean.
Las carpetas son de laburo, constantemente se actualizan, crece su
estructura y su capacidad.
Los controladores de dominio en los que se quiere implementar DFS tienen un
link de 100 mbps.

Es viable migrar este escenario mediante una solucuion DFS?
Cualquier experiencia que hayan tenido sobre el tema será bien recibida,
saludos.

Preguntas similare

Leer las respuestas

#6 José Antonio Quílez [MS MVP]
29/12/2005 - 19:52 | Informe spam
El problema es que un servidor de archivos con alrededor de un centenar de usuarios puede tener del órden de 5 a 10.000
carpetas. A ver quién es el guapo que replica eso una por una.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje news:
Jose, respecto de lo que comentas tenes razon, en varios GB de informacion la replicacion puede ser un problema
dependiendo el tipo de vinculo y congestion que tengas, por eso es que la recomendacion es que si no lo implemento
espere al R2, por otro lado si no se puede postergar la implementacion, despues de hablar con MS la recomendacion de
ellos es controlar el tamanio de las carpetas a replicar, no replicar el root hacia abajo si no carpeta por carpeta.
Adjunto un link que puede ser util.

http://www.microsoft.com/technet/pr...eed6f.mspx

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:%23YDDQY%
Lo de sin problemas es teórico, pero he implementado DFS en varias ocasiones, y he salido bastante escocido del
mismo. Para volúmenes de datos pequeños funciona bien, pero estamos hablando de varios Gb de datos. La propia réplica
inicial tendría que hacerse primero, y ahí es donde está el problema. Por propia experiencia, una réplica de más de
un Gb te puede saturar el servidor, y si encima lo hace con DCs, le puede afectar y detener la réplica del propio AD.
Tengo que probar todavía el funcionamiento del nuevo DFS en R2, pero hasta ahora me he encontrado más inconsistencias
que ventajas. Va bien para pequeños volúmenes de datos, pero en cuanto crecen mucho los datos a replicar de golpe,
aparecen los problemas.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:%
Lo que vos queres hacer se puede hacer sin problemas con DFS, si aun no lo implementaste te recomiendo que esperes a
que este disponible Windows 2003 R2 ya que viene muy optimizado DFS, en lugar de replicar todo el archivo completo
solamente replica el contenido modificado (para darte un ejemplo). Por otro lado tiene features para que integres tu
file server a un SAN y utilices el SAN como repositorio para tu DFS, adicionalmente tiene un file screening para
restringir el contenido de los files que vas a tener en el repositorio DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"Edu" wrote in message news:
La idea basicamente es usar DFS para mantener sincronizados los folders
compartidos y que cuando el usuario mapee un recurso lo haga a traves del DFS
pudiendose logonear en cualquier DC y si por x motivo un DC se cae que el DFS
automaticamente redireccione al otro DC, con esto no se necesita cambiar los
scripts de mapeo en caso de caida de un DC, por eso lo pense y no para una
migracion!!


"José Antonio Quílez [MS MVP]" wrote:

Para nada. DFS, por desgracia, no funciona bien con volúmenes grandes de datos, además de darte poco control sobre
el
proceso de sincronización.
Hay soluciones más profesionales para la sincronización, pero incluso éstas no son, para mi gusto, adecuadas para
una
migración. Lo mejor es usar un buen programa de copia de seguridad (Veritas Backup Exec, por ejemplo), hacer una
copia
completa y restaurarla en el nuevo servidor (lo puedes hacer todo desde el mismo equipo) con todos los permisos de
los
usuarios. Además, si algún usuario modifica archivos en el servidor origen durante el proceso, siempre puedes
programar
copias incrementales posteriores y restaurarlas sobre el nuevo hasta que cambies a los usuarios para que apunten
sólo al
nuevo servidor.
Esta es la opción que he usado yo siempre que he tenido que migrar datos entre servidores. Es la más fiable y no
te va a
dejar vendido.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Edu" escribió en el mensaje
news:
> Necesitaría saber si es posible migrar la estructura de un servidor de
> archivos a una solución con DFS en un server 2003 standard edition.
>
> La estructura existente es mas o menos la siguiente:
> folder compartido 1 (1500 archivos y 200 subfolders) 82 mb
> folder compartido 2 (7000 archivos y 10000 subfolders) 16 gb
> folder compartido 3 (12000 archivos y 1500 subfolders) 3 gb
> folder compartido 4 (12000 archivos y 500 subfolders) 1.5 gb
> folder compartido 5 (30000 archivos y 2000 subfolders) 4.5 gb
> folder compartido 6 (20000 archivos y 1000 subfolders) 5.3 gb
>
> Dentro de cada folder puede haber mas comparticiones, y luego a los usuarios
> se les mapean las carpetas requeridas con un script cuando se logean.
> Las carpetas son de laburo, constantemente se actualizan, crece su
> estructura y su capacidad.
> Los controladores de dominio en los que se quiere implementar DFS tienen un
> link de 100 mbps.
>
> Es viable migrar este escenario mediante una solucuion DFS?
> Cualquier experiencia que hayan tenido sobre el tema será bien recibida,
> saludos.
>
>

















Respuesta Responder a este mensaje
#7 Emiliano G. Estevez
29/12/2005 - 20:51 | Informe spam
Buen punto... el tema es que la recomendacion creo que apunta a generar una
estructura controlada (quotas) y expandirla en sub-carpetas a medida que sea
necesario o con historico de carpetas, pero bueno insisto en que deberia
esperar al R2 del 2003 antes de implementar DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:
El problema es que un servidor de archivos con alrededor de un centenar de
usuarios puede tener del órden de 5 a 10.000 carpetas. A ver quién es el
guapo que replica eso una por una.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:
Jose, respecto de lo que comentas tenes razon, en varios GB de
informacion la replicacion puede ser un problema dependiendo el tipo de
vinculo y congestion que tengas, por eso es que la recomendacion es que
si no lo implemento espere al R2, por otro lado si no se puede postergar
la implementacion, despues de hablar con MS la recomendacion de ellos es
controlar el tamanio de las carpetas a replicar, no replicar el root
hacia abajo si no carpeta por carpeta. Adjunto un link que puede ser
util.

http://www.microsoft.com/technet/pr...eed6f.mspx

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:%23YDDQY%
Lo de sin problemas es teórico, pero he implementado DFS en varias
ocasiones, y he salido bastante escocido del mismo. Para volúmenes de
datos pequeños funciona bien, pero estamos hablando de varios Gb de
datos. La propia réplica inicial tendría que hacerse primero, y ahí es
donde está el problema. Por propia experiencia, una réplica de más de un
Gb te puede saturar el servidor, y si encima lo hace con DCs, le puede
afectar y detener la réplica del propio AD.
Tengo que probar todavía el funcionamiento del nuevo DFS en R2, pero
hasta ahora me he encontrado más inconsistencias que ventajas. Va bien
para pequeños volúmenes de datos, pero en cuanto crecen mucho los datos
a replicar de golpe, aparecen los problemas.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:%
Lo que vos queres hacer se puede hacer sin problemas con DFS, si aun no
lo implementaste te recomiendo que esperes a que este disponible
Windows 2003 R2 ya que viene muy optimizado DFS, en lugar de replicar
todo el archivo completo solamente replica el contenido modificado
(para darte un ejemplo). Por otro lado tiene features para que integres
tu file server a un SAN y utilices el SAN como repositorio para tu DFS,
adicionalmente tiene un file screening para restringir el contenido de
los files que vas a tener en el repositorio DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"Edu" wrote in message
news:
La idea basicamente es usar DFS para mantener sincronizados los
folders
compartidos y que cuando el usuario mapee un recurso lo haga a traves
del DFS
pudiendose logonear en cualquier DC y si por x motivo un DC se cae que
el DFS
automaticamente redireccione al otro DC, con esto no se necesita
cambiar los
scripts de mapeo en caso de caida de un DC, por eso lo pense y no para
una
migracion!!


"José Antonio Quílez [MS MVP]" wrote:

Para nada. DFS, por desgracia, no funciona bien con volúmenes grandes
de datos, además de darte poco control sobre el
proceso de sincronización.
Hay soluciones más profesionales para la sincronización, pero incluso
éstas no son, para mi gusto, adecuadas para una
migración. Lo mejor es usar un buen programa de copia de seguridad
(Veritas Backup Exec, por ejemplo), hacer una copia
completa y restaurarla en el nuevo servidor (lo puedes hacer todo
desde el mismo equipo) con todos los permisos de los
usuarios. Además, si algún usuario modifica archivos en el servidor
origen durante el proceso, siempre puedes programar
copias incrementales posteriores y restaurarlas sobre el nuevo hasta
que cambies a los usuarios para que apunten sólo al
nuevo servidor.
Esta es la opción que he usado yo siempre que he tenido que migrar
datos entre servidores. Es la más fiable y no te va a
dejar vendido.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Edu" escribió en el mensaje
news:
> Necesitaría saber si es posible migrar la estructura de un servidor
> de
> archivos a una solución con DFS en un server 2003 standard edition.
>
> La estructura existente es mas o menos la siguiente:
> folder compartido 1 (1500 archivos y 200 subfolders) 82 mb
> folder compartido 2 (7000 archivos y 10000 subfolders) 16 gb
> folder compartido 3 (12000 archivos y 1500 subfolders) 3 gb
> folder compartido 4 (12000 archivos y 500 subfolders) 1.5 gb
> folder compartido 5 (30000 archivos y 2000 subfolders) 4.5 gb
> folder compartido 6 (20000 archivos y 1000 subfolders) 5.3 gb
>
> Dentro de cada folder puede haber mas comparticiones, y luego a los
> usuarios
> se les mapean las carpetas requeridas con un script cuando se
> logean.
> Las carpetas son de laburo, constantemente se actualizan, crece su
> estructura y su capacidad.
> Los controladores de dominio en los que se quiere implementar DFS
> tienen un
> link de 100 mbps.
>
> Es viable migrar este escenario mediante una solucuion DFS?
> Cualquier experiencia que hayan tenido sobre el tema será bien
> recibida,
> saludos.
>
>





















Respuesta Responder a este mensaje
#8 José Antonio Quílez [MS MVP]
30/12/2005 - 22:37 | Informe spam
Acabo de recibir el R2 (en inglés todavía). A ver si tras las fiestas lo instalo en una batería de pruebas y compruebo
cómo anda con el DFS. Mucho tiene que haber cambiado para que me convenza.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje news:
Buen punto... el tema es que la recomendacion creo que apunta a generar una estructura controlada (quotas) y
expandirla en sub-carpetas a medida que sea necesario o con historico de carpetas, pero bueno insisto en que deberia
esperar al R2 del 2003 antes de implementar DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message news:
El problema es que un servidor de archivos con alrededor de un centenar de usuarios puede tener del órden de 5 a
10.000 carpetas. A ver quién es el guapo que replica eso una por una.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje news:
Jose, respecto de lo que comentas tenes razon, en varios GB de informacion la replicacion puede ser un problema
dependiendo el tipo de vinculo y congestion que tengas, por eso es que la recomendacion es que si no lo implemento
espere al R2, por otro lado si no se puede postergar la implementacion, despues de hablar con MS la recomendacion de
ellos es controlar el tamanio de las carpetas a replicar, no replicar el root hacia abajo si no carpeta por carpeta.
Adjunto un link que puede ser util.

http://www.microsoft.com/technet/pr...eed6f.mspx

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:%23YDDQY%
Lo de sin problemas es teórico, pero he implementado DFS en varias ocasiones, y he salido bastante escocido del
mismo. Para volúmenes de datos pequeños funciona bien, pero estamos hablando de varios Gb de datos. La propia
réplica inicial tendría que hacerse primero, y ahí es donde está el problema. Por propia experiencia, una réplica
de más de un Gb te puede saturar el servidor, y si encima lo hace con DCs, le puede afectar y detener la réplica
del propio AD.
Tengo que probar todavía el funcionamiento del nuevo DFS en R2, pero hasta ahora me he encontrado más
inconsistencias que ventajas. Va bien para pequeños volúmenes de datos, pero en cuanto crecen mucho los datos a
replicar de golpe, aparecen los problemas.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:%
Lo que vos queres hacer se puede hacer sin problemas con DFS, si aun no lo implementaste te recomiendo que esperes
a que este disponible Windows 2003 R2 ya que viene muy optimizado DFS, en lugar de replicar todo el archivo
completo solamente replica el contenido modificado (para darte un ejemplo). Por otro lado tiene features para que
integres tu file server a un SAN y utilices el SAN como repositorio para tu DFS, adicionalmente tiene un file
screening para restringir el contenido de los files que vas a tener en el repositorio DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"Edu" wrote in message news:
La idea basicamente es usar DFS para mantener sincronizados los folders
compartidos y que cuando el usuario mapee un recurso lo haga a traves del DFS
pudiendose logonear en cualquier DC y si por x motivo un DC se cae que el DFS
automaticamente redireccione al otro DC, con esto no se necesita cambiar los
scripts de mapeo en caso de caida de un DC, por eso lo pense y no para una
migracion!!


"José Antonio Quílez [MS MVP]" wrote:

Para nada. DFS, por desgracia, no funciona bien con volúmenes grandes de datos, además de darte poco control
sobre el
proceso de sincronización.
Hay soluciones más profesionales para la sincronización, pero incluso éstas no son, para mi gusto, adecuadas
para una
migración. Lo mejor es usar un buen programa de copia de seguridad (Veritas Backup Exec, por ejemplo), hacer una
copia
completa y restaurarla en el nuevo servidor (lo puedes hacer todo desde el mismo equipo) con todos los permisos
de los
usuarios. Además, si algún usuario modifica archivos en el servidor origen durante el proceso, siempre puedes
programar
copias incrementales posteriores y restaurarlas sobre el nuevo hasta que cambies a los usuarios para que apunten
sólo al
nuevo servidor.
Esta es la opción que he usado yo siempre que he tenido que migrar datos entre servidores. Es la más fiable y no
te va a
dejar vendido.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Edu" escribió en el mensaje
news:
> Necesitaría saber si es posible migrar la estructura de un servidor de
> archivos a una solución con DFS en un server 2003 standard edition.
>
> La estructura existente es mas o menos la siguiente:
> folder compartido 1 (1500 archivos y 200 subfolders) 82 mb
> folder compartido 2 (7000 archivos y 10000 subfolders) 16 gb
> folder compartido 3 (12000 archivos y 1500 subfolders) 3 gb
> folder compartido 4 (12000 archivos y 500 subfolders) 1.5 gb
> folder compartido 5 (30000 archivos y 2000 subfolders) 4.5 gb
> folder compartido 6 (20000 archivos y 1000 subfolders) 5.3 gb
>
> Dentro de cada folder puede haber mas comparticiones, y luego a los usuarios
> se les mapean las carpetas requeridas con un script cuando se logean.
> Las carpetas son de laburo, constantemente se actualizan, crece su
> estructura y su capacidad.
> Los controladores de dominio en los que se quiere implementar DFS tienen un
> link de 100 mbps.
>
> Es viable migrar este escenario mediante una solucuion DFS?
> Cualquier experiencia que hayan tenido sobre el tema será bien recibida,
> saludos.
>
>

























Respuesta Responder a este mensaje
#9 Emiliano G. Estevez
30/12/2005 - 23:01 | Informe spam
Espero tus comentarios entonces ;-)

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:
Acabo de recibir el R2 (en inglés todavía). A ver si tras las fiestas lo
instalo en una batería de pruebas y compruebo cómo anda con el DFS. Mucho
tiene que haber cambiado para que me convenza.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:
Buen punto... el tema es que la recomendacion creo que apunta a generar
una estructura controlada (quotas) y expandirla en sub-carpetas a medida
que sea necesario o con historico de carpetas, pero bueno insisto en que
deberia esperar al R2 del 2003 antes de implementar DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:
El problema es que un servidor de archivos con alrededor de un centenar
de usuarios puede tener del órden de 5 a 10.000 carpetas. A ver quién es
el guapo que replica eso una por una.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:
Jose, respecto de lo que comentas tenes razon, en varios GB de
informacion la replicacion puede ser un problema dependiendo el tipo de
vinculo y congestion que tengas, por eso es que la recomendacion es que
si no lo implemento espere al R2, por otro lado si no se puede
postergar la implementacion, despues de hablar con MS la recomendacion
de ellos es controlar el tamanio de las carpetas a replicar, no
replicar el root hacia abajo si no carpeta por carpeta. Adjunto un link
que puede ser util.

http://www.microsoft.com/technet/pr...eed6f.mspx

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"José Antonio Quílez [MS MVP]" wrote in message
news:%23YDDQY%
Lo de sin problemas es teórico, pero he implementado DFS en varias
ocasiones, y he salido bastante escocido del mismo. Para volúmenes de
datos pequeños funciona bien, pero estamos hablando de varios Gb de
datos. La propia réplica inicial tendría que hacerse primero, y ahí es
donde está el problema. Por propia experiencia, una réplica de más de
un Gb te puede saturar el servidor, y si encima lo hace con DCs, le
puede afectar y detener la réplica del propio AD.
Tengo que probar todavía el funcionamiento del nuevo DFS en R2, pero
hasta ahora me he encontrado más inconsistencias que ventajas. Va bien
para pequeños volúmenes de datos, pero en cuanto crecen mucho los
datos a replicar de golpe, aparecen los problemas.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Emiliano G. Estevez" escribió en el mensaje
news:%
Lo que vos queres hacer se puede hacer sin problemas con DFS, si aun
no lo implementaste te recomiendo que esperes a que este disponible
Windows 2003 R2 ya que viene muy optimizado DFS, en lugar de replicar
todo el archivo completo solamente replica el contenido modificado
(para darte un ejemplo). Por otro lado tiene features para que
integres tu file server a un SAN y utilices el SAN como repositorio
para tu DFS, adicionalmente tiene un file screening para restringir
el contenido de los files que vas a tener en el repositorio DFS.

Saludos,
Emiliano G. Estevez
MCSA/MCSE
Algeiba S.A.

"Edu" wrote in message
news:
La idea basicamente es usar DFS para mantener sincronizados los
folders
compartidos y que cuando el usuario mapee un recurso lo haga a
traves del DFS
pudiendose logonear en cualquier DC y si por x motivo un DC se cae
que el DFS
automaticamente redireccione al otro DC, con esto no se necesita
cambiar los
scripts de mapeo en caso de caida de un DC, por eso lo pense y no
para una
migracion!!


"José Antonio Quílez [MS MVP]" wrote:

Para nada. DFS, por desgracia, no funciona bien con volúmenes
grandes de datos, además de darte poco control sobre el
proceso de sincronización.
Hay soluciones más profesionales para la sincronización, pero
incluso éstas no son, para mi gusto, adecuadas para una
migración. Lo mejor es usar un buen programa de copia de seguridad
(Veritas Backup Exec, por ejemplo), hacer una copia
completa y restaurarla en el nuevo servidor (lo puedes hacer todo
desde el mismo equipo) con todos los permisos de los
usuarios. Además, si algún usuario modifica archivos en el servidor
origen durante el proceso, siempre puedes programar
copias incrementales posteriores y restaurarlas sobre el nuevo
hasta que cambies a los usuarios para que apunten sólo al
nuevo servidor.
Esta es la opción que he usado yo siempre que he tenido que migrar
datos entre servidores. Es la más fiable y no te va a
dejar vendido.

Saludos

José Antonio Quílez
Sevilla - España
http://msmvps.com/blogs/quilez/

"Edu" escribió en el mensaje
news:
> Necesitaría saber si es posible migrar la estructura de un
> servidor de
> archivos a una solución con DFS en un server 2003 standard
> edition.
>
> La estructura existente es mas o menos la siguiente:
> folder compartido 1 (1500 archivos y 200 subfolders) 82 mb
> folder compartido 2 (7000 archivos y 10000 subfolders) 16 gb
> folder compartido 3 (12000 archivos y 1500 subfolders) 3 gb
> folder compartido 4 (12000 archivos y 500 subfolders) 1.5 gb
> folder compartido 5 (30000 archivos y 2000 subfolders) 4.5 gb
> folder compartido 6 (20000 archivos y 1000 subfolders) 5.3 gb
>
> Dentro de cada folder puede haber mas comparticiones, y luego a
> los usuarios
> se les mapean las carpetas requeridas con un script cuando se
> logean.
> Las carpetas son de laburo, constantemente se actualizan, crece
> su
> estructura y su capacidad.
> Los controladores de dominio en los que se quiere implementar DFS
> tienen un
> link de 100 mbps.
>
> Es viable migrar este escenario mediante una solucuion DFS?
> Cualquier experiencia que hayan tenido sobre el tema será bien
> recibida,
> saludos.
>
>





























email Siga el debate Respuesta Responder a este mensaje
Ads by Google
Help Hacer una pregunta AnteriorRespuesta Tengo una respuesta
Search Busqueda sugerida