Usos De La Sincronizacion Manejo De Cache Comunicacion En
Grupo Exclusion Mutua Eleccion Transacciones Atomicas E Interbloqueo
Memoria Caché
En los sistemas de archivos convencionales, el fundamento
para la memoria caché es la reducción de la E/S de disco (lo que aumenta el
rendimiento), en un SAD el objetivo es reducir el tráfico en la red. Esquema
Básico, el concepto de memoria caché es sencillo, si los datos necesarios para
satisfacer la solicitud de acceso no se encuentran en la memoria cache, se trae
una copia de servicio al usuario y los accesos se llevan a cabo con la copia de
memoria caché.
La idea es conservar allí los bloques de disco de acceso mas
reciente, para así manejar localmente los accesos repetidos a la misma
información y no aumentar el tráfico de la red. Se utiliza una política de
reemplazo (por ejemplo, la de utilización menos reciente) para limitar el
tamaño de la memoria caché. Políticas de Actualización, la política empleada
para escribir los bloques de datos modificados en la copia maestra del servidor
tiene un efecto decisivo sobre la confiabilidad y el rendimiento del sistema.
La política mas sencilla consiste en escribir los datos directamente en el
disco tan pronto se coloquen en una memoria caché. La ventaja de la escritura
directa es su confiabilidad, ya que se pierde poca información si un sistema
cliente falla. Sin embargo, esta política requiere que cada acceso de escritura
espere hasta que se envíe la información al servidor, por lo que representa una
escritura de escaso rendimiento. La memoria caché con escritura directa
equivale a usar el servicio remoto para accesos de escritura y explotar la
memoria cache únicamente para accesos de lectura. NFS proporciona el acceso de
escritura directa.
Consistencia, una maquina cliente se enfrenta al problema de
decidir si una copia de datos en memoria caché local es consistente con la
copia maestra ( y por tanto, puede usarse). Si la maquina cliente determina que
sus datos en memoria.
No hay comentarios:
Publicar un comentario