viernes, 31 de mayo de 2013

BIG DATA Y NAS Scale out

Big data
 Esta característica es, para el directivo, esencial a la hora de plantearse una solución big data. “Cuando estamos hablando de big data, estamos hablando de una enorme cantidad de datos, así que con las soluciones de scale up no puedes realmente manejar ese fenómeno. Porque puedes llegar hasta 2 petabytes, pero después tendrás que comprar otra controladora y así sucesivamente. Con las soluciones de scale out simplemente añadiendo servidores puedes ir a cuantos petabytes quieras. Por esto decidimos entrar en el mercado de almacenamiento scale out”, subraya el Business Development Manager de Red Hat Storage .
 La solución Red Hat Storage es open source, e integra características para entornos big data. Está diseñada para gestionar datos semi-estructurados y no estructurados, ficheros y objetos. 
 
En este sentido, Red Hat Storage y la solución de Hadoop están llamadas a complementarse. La compañía también ha desarrollado una asociación con Intel,  que recientemente lanzó al mercado una solución de big data integrada en la CPU directamente. 
Una solución NAS Scale out
 
La solución Red Hat Storage es una appliance de software, fruto de la adquisición de la compañía Gluster en 2011. La solución incluye el sistema operativo y la solución de almacenamiento software en sí misma. Esto significa que la plataforma de hardware es agnóstica, lo que implica que la solución puede correr sobre servidores HP, Dell, IBM, Cisco… Tan solo se realizan algunas recomendaciones en cuanto a requerimientos de socket, CPU o RAM. 
 
Por lo tanto, al contrario que con soluciones propietarias, cuando el cliente adquiere Red Hat Storage por un lado compra el software y por otro el hardware, pero además puede reaprovechar los servidores de los que ya dispone. Esto es algo que no se puede hacer con las soluciones típicas de almacenamiento.
 
Otra ventaja tiene que ver con la posibilidad de ampliar la capacidad. Puesto que se trata de una solución scaled out NAS, cuando se quiere crecer desde el punto de vista del rendimiento, solo es necesario añadir un nuevo nodo, que es el servidor. Es decir, cuanta más capacidad se necesite, más servidores habrá que añadir. 
Con el scale out -explica Kusic-, si quieres crecer, solo tienes que añadir más discos (más discos, más servidores) y seguirá siendo considerado como un punto único de almacenamiento. Es decir, que no estás construyendo silos, sino una solución global. Esta es la diferencia entre scale out y scale up. En el scale up siempre puedes añadir discos y capacidad pero solo hasta cierta capacidad, y después tienes que comprar una controladora. En el scale out puedes añadir cuanta capacidad y rendimiento quieras, a medida que añadas servidores”.

jueves, 30 de mayo de 2013

#Épsilondc, Los Mitos de la Seguridad del Cloud

La dificultad a la hora de garantizar la seguridad ha sido siempre el argumento esgrimido por aquellos más reticentes a adoptar el cloud. La falta de visibilidad de la infraestructura física, la imposibilidad de realizar auditorías o la pérdida de datos en caso de caída del proveedor o de ataques externos son solo algunas de las desconfianzas que la nube genera, y que en la mayoría de los casos no dejan de ser meros mitos.
Precisamente para desmitificar la idea de la falta de seguridad del cloud, diversos expertos incidieron, en el evento ExpoCloud organizado por EuroCloud Spain en marzo, en las fortalezas de la nube y en lo que debe exigirse a los proveedores para que la seguridad deje de ser un freno.
Es cierto que el cloud computing lleva asociadas una serie de debilidades y amenazas como cierta pérdida de control directo y riesgos de disponibilidad o fuga de información, en palabras de Chema Alonso, experto en seguridad de Informática 64. Sin olvidar que, aunque dar el salto a la nube es un paso sencillo a través de herramientas automáticas, el proceso contrario de bajarse del cloud –conocido como rollback– no es ni mucho menos tan fácil, algo que los proveedores deberían poder garantizar.
No obstante, después de que hemos sido capaces de hacer frente a todo tipo de amenazas informáticas y de infraestructura durante las últimas décadas, Alonso plantea una cuestión clave: “¿A alguien realmente le preocupa la seguridad en la nube? ¿De verdad creéis que es algo con lo que no vamos a poder lidiar?”.
La cadena de la seguridad
El concepto de nube como tal no deja de ser algo etéreo. De ahí que muchas compañías se planteen una duda decisiva cuando se trata de adoptar el cloud: ¿Dónde están los datos? Y aquí todos los proveedores lanzan una respuesta tranquilizadora: en una arquitectura de data center robusta, proporcionada por un proveedor de servicios profesional.
“Uno de los grandes mitos del cloud computing es que es inseguro, porque nunca sabemos dónde está alojada nuestra información”, explica Agustín López, director técnico de DatacenterDynamics. Efectivamente, no deja de ser un mito, “puesto que nosotros mismos seleccionamos al proveedor y es fácil conocer la geolocalización de nuestros datos”, añade.
Al final, la seguridad se trata de una cadena en la que todos los eslabones tienen que ser igual de fuertes, según indica Ignacio Amorrortu, head of BT Compute Spain. El primer eslabón de esa cadena es el data center, la seguridad física. “En este sentido, propugnamos el verificar que los proveedores tienen estándares, como los Tier de Uptime Institute”, apunta. Como opina Pedro Prestel, director de DC Ops de Terremark-Verizon, “para poder tener algo seguro, hay que diseñarlo desde el principio en base a la seguridad. No vale con poner parches”.
Junto al centro de datos, el segundo eslabón es la arquitectura del cloud, que debe ser redundante, sin puntos únicos de falla. Los siguientes pasos de esta cadena son las “tecnologías utilizadas para aislar a los clientes y evitar que los problemas de un cliente afecten a otro; las capacidades de disaster recovery; y los servicios avanzados de seguridad (SOC)”, que permiten hacer frente a amenazas como los ataques de denegación de servicio distribuido (DDOS), indica Amorrortu.
Común también es pensar que un proveedor no puede aportar toda la seguridad que requiere el cliente y, si lo hace, es a un precio mayor. Nuevamente, en muchos casos sigue siendo una idea preconcebida. “La seguridad es una fortaleza cuando constatamos que, gracias a las economías de escala, los proveedores utilizan soluciones de seguridad muy caras que rara vez una empresa se puede permitir. Además, el proveedor tiene la experiencia de millones de ataques detenidos hacia miles de clientes durante años”, en opinión de Fernando Fuentes, responsable de ventas de gran cuenta en Arsys.
Qué pedir al proveedor
Para eliminar cualquier temor a la seguridad de la nube, es necesario primero “desarrollar una estrategia antes de dar el salto a la nube y realizar un análisis de riesgos”, indica López, y valorar después qué ofrece cada proveedor y cuál se ajusta a las necesidades de la empresa. “El problema es que ahora mismo no es posible comparar las ofertas de cloud de diferentes proveedores porque, aunque comparten una misma nomenclatura, cada una incluye servicios distintos. Cuando no tienes un buen conocimiento de la nube, es difícil poder hacer este tipo de comparaciones”, añade el director técnico de DatacenterDynamics.
La situación se complica si además tenemos en cuenta que actualmente existe una gran fragmentación de la oferta y que no hay una completa estandarización de procesos y procedimientos.
Los proveedores cloud, por su parte, se defienden diciendo que la transparencia que manejan con el cliente es cada vez mayor. Y eso, precisamente, es lo que debe exigírseles. “El cliente debe hacer una estructura de lo que necesita, si lo quiere en su sitio o fuera y qué tipo de arquitectura requiere, y exigírselo así al proveedor. Y si ese proveedor no es flexible, debe irse a otro”, explica Alonso.
A las empresas que ofrecen servicios cloud, por tanto, debe pedírseles que aporten una confianza mucho más contundente, a través de auditorías y certificaciones de terceras partes para asegurar que lo que ofrecen se cumple, certificaciones personales del equipo técnico, un buen nivel de soporte 24×7 y SLAs que ofrezcan garantías de seguridad, según Juanjo García, sales manager de Arsys. “Al proveedor hay que pedirle credenciales de seguridad”, añade Amorrortu, para que el cliente se sienta confiado a la hora de delegar la seguridad.
Cuestión de cumplimiento
En esta búsqueda de la seguridad en cloud, el proveedor debe garantizar también que cuenta con data centers en el país, y que será en ellos donde se almacene la información de los clientes. Se trata principalmente –aunque no de forma exclusiva– de un tema de cumplimiento, puesto que de este modo es más sencillo cumplir con la legislación de cada zona. No hay que olvidar que el compliance ocupa el 75% del tiempo de los equipos de seguridad de las empresas, según datos de Alonso.
En el caso español, “es difícil incluso establecer una única regulación a nivel paneuropeo, por lo que lo importante es quedarnos con la local. En este sentido, las legislaciones que deben tenerse en cuenta en España están claras: la LOPD, la LISI y algunos artículos del código penal”, concreta García.
“Al elegir proveedor, hay que asegurar el cumplimiento que el cliente necesita. Cumplimiento legal de las leyes del país, pero también de las normas sectoriales y de las propias políticas corporativas”, añade el portavoz de BT.
Como concluye Borja Adsuara, director general de la entidad pública española Red.es, “tan importante es la seguridad tecnológica como la jurídica. Como no hay un 100% de seguridad tecnológica, en caso de que ocurra un incidente es necesario saber quién es el responsable, quién responde y qué consecuencias tiene. Y eso el proveedor se lo debe transmitir al cliente”.

miércoles, 29 de mayo de 2013

#Épsilondc, Propósito de la sala de servidores y el factor de capacidad de refrigeración

El propósito principal de una sala de servidores es proporcionar una temperatura del aire de entrada estable y apropiada para el equipamiento de TI. De este modo, las salas de servidores pueden ser clasificadas en dos tipos, aquellas sin problemas de temperatura de aire de entrada y aquellas que sí presentan problemas.
Para el primer caso, calcular el CCF proporciona información valiosa para hacer funcionar la sala de una forma más eficiente, a un menor coste y con más capacidad. Para instalaciones que sí presentan problemas o desafíos a la hora de mantener adecuadas temperaturas de aire de entrada, la primera pregunta que debe responderse es: “¿Se deben los problemas principalmente a una falta de capacidad de refrigeración o a una mala gestión del flujo del aire? El Cooling Capacity Factor responde claramente a esta pregunta.
Calculando el CCF
El CCF se calcula dividiendo la capacidad nominal total de refrigeración en ejecución (kW) por el 110% de la carga crítica de TI (kW).
La capacidad de refrigeración total en ejecución es la suma de las capacidades nominales por unidad de refrigeración. Es decir, si hay 8 unidades de cooling instaladas, cada una con una capacidad nominal de 70 kW, entonces el total de la capacidad de refrigeración en ejecución es 560 kW (8 x 70 kW = 560 kW).
Por su parte, la carga de la sala es la carga crítica de TI en la sala más un 10% adicional atribuible a iluminación, a personas y al conjunto estructural. Si la carga del UPS es 150 kW, entonces la carga de la sala es 165 kW (150 kW x 1,1 = 165 kW).
Por tanto, como el CCF se calcula dividiendo la capacidad total de refrigeración en ejecución por la carga de la sala (es decir, en este caso, 560 kW / 165 kW), el CCF sería de 3,4.
Cómo interpretarlo
Si el CCF de una sala se sitúa entre 1,0 y 1,1, esto significa que hay poca o ninguna capacidad de refrigeración redundante. Es crítico que los principios de AFM sean totalmente implementados en estas salas, para hacer disponible tanta capacidad redundante como sea posible. Puede ser incluso necesario instalar una unidad de refrigeración adicional para tener capacidad redundante.
Si el CCF se encuentra entre 1,1 y 1,2, entonces es probable que las unidades de cooling en ejecución estén siendo bien gestionadas. Habrá aproximadamente una o dos unidades de refrigeración redundantes por cada 10 unidades en ejecución. En la mayoría de los casos, esto es suficiente para mantener la temperatura de la sala cuando una unidad de refrigeración falla. No es recomendable que ninguna de las unidades sea desconectada.
Para salas con un CCF entre 1,2 y 1,5, existe cierta oportunidad de conseguir ahorros si se apagan algunas unidades de refrigeración. Pero, en ocasiones, esto solo puede ser llevado a cabo una vez que las mejoras de la gestión del flujo del aire hayan sido implementadas con efectividad. Esto no requiere estrategias de contención total, pero lo que sí debe exigirse es un sellado a fondo de las aberturas en el suelo elevado o de espacios abiertos en racks, así como mejores prácticas en la colocación de paneles perforados y rejillas.
Un CCF entre 1,5 y 3,0 es el más común. Estas salas tienen oportunidades considerables de reducir costes operativos, mejorar el entorno TI e incrementar la carga TI que puede ser refrigerada de forma efectiva. Las salas que se ubican en este rango a menudo tienen una capacidad de refrigeración infrautilizada o encallada que podría ser liberada mejorando la gestión del flujo del aire.
Finalmente, aquellas salas con un CCF superior a 3,0 tienen un gran potencial de mejora.
Rangos óptimos
Hay varios factores que afectan al mejor CCF potencial de una instalación. La configuración de la sala, por ejemplo, tiene un gran efecto en ese Factor de Capacidad de Refrigeración. Si hay áreas significativas de gabinetes orientados en la misma dirección y cantidades importantes de equipamiento independiente, entonces la gestión del flujo de aire es inherentemente ineficiente. El mejor CCF alcanzable se sitúa entre el 1,8 y el 2,0.
Las salas con pasillos fríos y calientes, pero sin contención, podrán tener como mejor CCF en torno a 1,2. Las salas con contención serán capaces de conseguir un CCF de 1,1.
Conclusiones prácticas
Lo más significativo de los datos recopilados por Upsite en 45 instalaciones es que el factor de capacidad de refrigeración medio en ellas fue de 3,9; es decir, la capacidad de cooling en ejecución era de 3,9 o del 390% de la carga de la sala.
El área de bypass en el suelo elevado está formada por aberturas sin sellar o baldosas perforadas ubicadas en pasillos calientes o áreas abiertas. El porcentaje de área abierta de bypass se calcula dividiendo el área abierta de bypass por el área abierta total de piso elevado.
La métrica más importante en una sala de servidores es el porcentaje de puntos calientes y fríos, un porcentaje que debería ser cero. Y, si bien la infraestructura de refrigeración consume más electricidad en un data center que cualquier otro componente, resulta que los paneles perforados, el modo más sencillo y menos caro de gestionar el flujo de aire y los recursos de refrigeración, solo están correctamente ubicados el 77% del tiempo.
Hacia una gestión eficiente
Como indican desde Upsite Technologies, hay varios pasos para conseguir la mejor gestión del flujo del aire. El primero es calcular el CCF para identificar un exceso de capacidad de refrigeración. El segundo es sellar todas las aberturas del piso elevado en el plano horizontal, como puede ser en las PDUs.
El tercer paso consiste en sellar el plano vertical a lo largo de las entradas del equipamiento TI, utilizando elementos como paneles ciegos o sellando huecos entre armarios. Finalmente, el cuarto paso se trata de gestionar los paneles perforados y la ubicación de las rejillas para que la temperatura del aire de entrada del equipamiento TI sea lo más baja posible.
Es un error común pensar que las iniciativas de gestión del flujo del aire reducen los gastos operativos. Mejorar el AFM impulsará el rendimiento y la fiabilidad del equipamiento TI, y liberará capacidad encallada. Pero para realizar ahorros de costes operativos, deben llevarse a cabo cambios en la infraestructura de cooling, como elevar los set points de las unidades, subir la temperatura del agua refrigerada, apagar unidades de refrigeración innecesarias o reducir la velocidad de los ventiladores.
Una calculadora del CCF
Upsite ha creado una calculadora online del CCF (http://www.upsite.com/cooling-capacityfactor-calculator). Introduciendo algunos sencillos datos de la instalación, los responsables del data center pueden calcular el Factor de Capacidad de Refrigeración para su centro de datos.

martes, 28 de mayo de 2013

EL PUE LLEGO PARA QUEDARSE

Si tenemos en cuenta que el PUE está aquí para quedarse, al menos en el futuro inmediato, debemos intentar implantarlo, no ir en contra de él. Tened en cuenta lo siguiente: un comprador se encuentra con dos opciones de hosting; una con un PUE de 1,6 (aunque diseñada para 1,4) y otra de 1,5. Si el resto de factores son iguales, entonces es cierto que la instalación más verde será la que tenga el PUE más bajo. No hay lugar a dudas. Puede debatirse sobre la vida total del contrato, por ejemplo, pero en ese momento preciso, el menor PUE es la mejor elección.
Si consideramos el PUE como una fuerza de mercado, desde la perspectiva de un comprador, muchos proveedores han pasado de ofrecer una calificación del PUE dentro de los límites normales en 2010, a convertirse en líderes con sus PUEs. Ha habido varios artículos (y no solo sobre Google), sobre la apertura de nuevas instalaciones en Reino Unido con un PUE muy bajo. Hay muchos proveedores que han reconocido el reto que suponen instalaciones operativas con un PUE relativamente alto y que están comprometidas en planes a varios años para actualizar sus infraestructuras y reducir el PUE de sus instalaciones de hosting año a año.
Desde una perspectiva de mercado, ése es el resultado deseado: las restricciones o limitaciones conducen al cambio de comportamientos. Muchas organizaciones ven ahora el objetivo de un PUE bajo como una oportunidad, y no como una amenaza, y así es como debería ser.
En resumen, por tanto, el PUE es ampliamente utilizado y seguirá siéndolo. En ese sentido, debería ser considerado como parte del entorno moderno y los proveedores de hosting deberían responder a ello consecuentemente.

lunes, 27 de mayo de 2013

¿Qué es el Diseño y Construcción en la nube?

El software permite una interfaz de usuario optimizada, mejores características y una integración sólida entre la Nube y el escritorio.

Se ha lanzado una versión de software de gestión en la Nube para el Modelado de Información de Edificios que extiende el proceso de diseño hasta la etapa de construcción, permitiendo el acceso a la información del proyecto para promover un modelo coordinado y detección temprana de posibles conflictos entre los involucrados, ya sea desde el escritorio, a través de un dispositivo móvil o en la web.La introducción de dispositivos móviles en la industria de la construcción está transformando la manera en que se desarrollan y administran proyectos, es por ello que la apuesta de BIM 360 Glue, mejora la colaboración en la Nube y el acceso móvil, lo que contribuye a garantizar que el equipo del proyecto pueda participar en la coordinación, minimizando los ciclos de este proceso y riesgos, al tiempo que brinda a equipos herramientas para visualizar los diseños sin importar dónde se encuentren. Equipos de diseño y construcción tendrán un solo punto de acceso a las últimas actualizaciones de los proyectos y podrán simular conflictos en tiempo real, lo que se traduce en ahorros significativos de tiempo y costos.
La versión ofrece una interfaz de usuario optimizada y diseño novedoso, así como soporte para modelos de proyectos más grandes.
Asimismo, BIM 360 Glue de Autodesk permite que los usuarios lleven su proyecto aún más lejos con las herramientas de análisis, línea de tiempo animada en 4D y la cuantificación basada en modelos. Así pues, la aplicación móvil actualizada, también proporciona un mejor anti-escalonamiento de imágenes y soporte para modelos creados para ofrecer acceso virtual a datos importantes del proyecto desde cualquier lugar y en cualquier momento.

viernes, 24 de mayo de 2013

#Épsilondc, Incorporarse a la nube registra ahorro


La Incorporación a la nube brinda oportunidades a empresas de diferentes tamaños y se ha traducido en un ahorro de costes.
Entre los datos que destaca el informe, se señala que las empresas de mayor tamaño son las más proclives a utilizar la nube que las PyMES. Dos de cada tres organizaciones se dijo con planes para centrar aún más su estrategia de negocios en la nube, en comparación con el 58% de las PyMES. 

jueves, 23 de mayo de 2013

#Épsilondc,Relación entre Tiers y Sustentabilidad Operacional


El rigor y sofisticación de los conceptos y metodologías de administración del sitio de Sustentabilidad Operacional son establecidos por los requerimientos de negocio del sitio.Los tres elementos de Sustentabilidad Operacional impactan la potencial de desempeño de la Topología del Tier, pero Administración & Operaciones tiene el impacto más fuerte para disponibilidad por largo plazo.Niveles de personal, acercamiento a mantenimiento, y la cantidad y detalle de procesos y procedimientos son categorías ilustrativas del elemento de Administración & Operaciones que relacionan directamente a cada nivel de Tier.
Presentado por Osmo Kuusisto, RCDD

miércoles, 22 de mayo de 2013

CLAVES PARA UN DATA CENTER CORPORATIVO

El crecimiento del volumen de datos y la incidencia de la IT en el negocio hacen imprescindible la instalación de un datacenter en muchas empresas, pero ¿qué hay que tomar en cuenta para tal decisión? Cableado, equipos de almacenamiento,refrigeración y seguridad son algunos de los puntos críticos. Expertos cuentan tips y experiencias. Los datos se han convertido en un elemento vital para la industria y necesitan protegerse. Empresas de todos los tamaños y segmentos han aumentando sus necesidades de almacenamiento y, como estas siguen creciendo año a año, los desafíos son cada vez mayores. Al multiplicarse los volúmenes de datos, su administración es un cargo muy costoso en algunas ocasiones, lo que está obligando a las empresas a tomar decisiones sobre qué hacer con la información,cómo almacenarla y en manos de quién dejarla. Entonces, surge la posibilidad de tomar las riendas del asunto y hacerse de un datacenter propio, pero ¿cuán sencillo es hacer esto uno mismo? Según los expertos, a veces es mucho más rentable de lo que se cree.Un datacenter es un punto de misión crítica en la empresa; y esto es lo que se debe ver antes de cualquier intento de inversión. Al comenzar la implementación, hay que definir la mejor ubicación dentro de las instalaciones físicas de la empresa y, para esto, se deben tener en cuenta las evaluaciones de riesgo técnico y social, la seguridad física, el monitoreo y hasta la propia definición de los elementos básicos de energía y clima.Para ello, Miguel Aldama, regional trainer de Siemon, empresa especialista en la fabricación de cableado de redes de alto rendimiento,aconseja basarse en las recomendaciones del estándar ANSI/EIA/TIA 942, que define los parámetros generales para un sistema de cableado genérico que permita la interconexión de dispositivos informáticos y de telecomunicación para conformar una red. #Épsilondc, Pioneros en Data Center

martes, 21 de mayo de 2013

#Épsilondc,México y Perú transforman las infraestructuras de sus bolsas,renovando su tecnología


En poco más de 2 milisegundos, el motor de negociación de la Bolsa Mexicana de Valores (BMV) es capaz de recibir una orden, “traducirla” a la simbología necesaria mediante el protocolo FIX y responder a dicha orden. En ese plazo, además, va incluido el tiempo de conectividad de la red, que para los agentes de Bolsa que usan los servicios de colocation de BMV asciende a 1 milisegundo.
Acorde al crecimiento que están experimentando las economías latinoamericanas, las bolsas de estos países están poniendo en marcha un proceso de renovación tecnológica que les permita preparar su infraestructura para el futuro.
La Bolsa de Brasil (BM&FBOVESPA), que se encuentra en el top ten de las bolsas mundiales –compartiendo podio con otras como NYSE, NASDAQ OMX, Tokyo, Londres o Shanghái–, lleva años trabajando en la ampliación de su infraestructura tecnológica. Esta institución cuenta actualmente con media decena de data centers activos, después de externalizar parte de su infraestructura TI con Diveo.
En el caso de la Bolsa Mexicana de Valores, además de los 150 m2 que tiene en colocation para su CPD primario, cuenta con otro data center de backup de unos 800 m2 en Pachuca, a  unos 100 kilómetros de distancia. En los últimos años, la BMV no ha parado de renovar sus infraestructuras: en 2007 decidió migrar su centro de datos a KIO Networks, capaz de ofrecerle un mayor nivel de redundancia eléctrica y seguridad. Posteriormente, cambió su red de datos desde frame relay hacia SDH y, el año pasado, a Ethernet sobre SDH, pasando así de anchos de banda de 2 a 100 megabits.
En la parte de infraestructura, la institución sustituyó los tradicionales mainframe Tandem por nuevos equipos de menor costo de Intel y PowerPC. Y, como consecuencia de todas las innovaciones, ahora el motor de negociación de capitales es mucho más rápido: ha mejorado su capacidad desde los 300 mensajes por segundo, cuando trabajaba en Tandem, a los 100.000 mensajes por segundo. El próximo paso consiste en la renovación de las bases de datos.
“A la hora de hacer renovaciones, tratamos de adaptarnos al roadmap de nuestros socios tecnológicos. Compañías como Intel o PowerPC tienen un nuevo roadmap de procesadores cada dos años, aproximadamente. Nosotros dejamos un periodo de un año de maduración de la plataforma y cada tres años renovamos la infraestructura”, según Ceballos.
En el caso de la Bolsa de Valores de Lima este proceso de modernización se realiza cada cinco años. Como ocurría con la BMV, la institución peruana contaba con un centro de datos propio que, en el año 2000, decidieron externalizar con una empresa especializada: GMD. Esta compañía, que ofrece a la bolsa servicios de housing y hosting, acoge también el data center de backup de BVL.
La casa de valores peruana ha cambiado también su plataforma TI a servidores blade, que les permiten racionalizar el espacio, y acaba de lanzar el modelo de negociación de Acceso Directo al Mercado (DMA, en sus siglas en inglés), una conexión de red que permite el acceso directo de los inversionistas, desde la pantalla de su terminal, a los mercados en tiempo real (previa autorización de su agente de bolsa). El mayor cambio tecnológico, no obstante, llegará si finalmente implantan la plataforma de MillenniumIT, con las posibilidades de interconectividad que aportará.
El compromiso por la innovación tecnológica en las bolsas latinoamericanas es claro y la carrera hacia una latencia cada vez más cercana a cero ha empezado. Los valores de renovación, disponibilidad y agilidad están, sin duda, al alza. #Épsilondc,México y Perú transforman las infraestructuras de sus bolsas,renovando su tecnología

lunes, 20 de mayo de 2013

#Épsilondc, Seguridad en los Data Center

Es preciso señalar, que la información es el activo más importante con que cuentan las compañías, ya que sin ella,éstas no pueden funcionar.Asegurar la información que permanece en los centros de datos va más allá de protegerla ante posibles amenazas externas.Se trata más bien, de garantizar nivelesde servicio que permitan obtener
información cuando se necesite, es decir,que esté disponible las 24 horas del día
durante los 7 días de la semana.El tema de la seguridad, es un proceso complejo que tiene la misión de brindar una mejora continua en la productividad de las operaciones que a diario realiza una compañía, por lo mismo, hay que revisar constantemente los centros
de datos.Contar con soluciones de respaldo,almacenamiento, recuperación de sistemas
y planes de continuidad que abarquen por completo a la organización, significa
evitar un problema en el control de acceso a los data center y la información
disponible en ellos, para así continuar de manera normal con el negocio.Hoy, un aspecto relevante para certificar la disponibilidad de los datos, es contar con planes de continuidad correctos,como por ejemplo, los de recuperación de desastres (RD), ya que pueden facilitar resolver dificultades para que las organizaciones puedan seguir funcionando
ante cualquier amenaza, manteniendo así su continuidad y evitando cuantiosas pérdidas.
A esto se suma, el factor humano que es esencial para el resguardo de la información,es decir, contar con personal capacitado y con procedimientos establecidos basados en las normas internacionales,como por ejemplo, la ISO 17799 y la ISO 27001, que son una guía empresarial para mantener de forma segura la información de sus centros de datos. Por lo tanto, el reto esta en adoptar medidas que abarquen y proporcionen ventajas a toda la empresa, es decir,desde aspectos organizacionales, legales,funcionales y comerciales. Junto a ello, se suma la utilización de las adecuadas herramientas que otorgan alta disponibilidad de las aplicaciones en los centros de datos y que garantizan la continuidad con soluciones de almacenamiento,respaldo y recuperación de sistemas.Solo así, se ayuda a aumentar la capacidad de las empresas de hacer crecer el negocio.#Épsilondc, Pioneros en Data Center

viernes, 17 de mayo de 2013

#Épsilondc, Cinco Tips Para Mejorar la Seguridad de Datos en tu Empresa

http://instalacionesrv.com/?p=6262


La adhesión a estas iniciativas puede ayudar a construir una base sólida para la estrategia de seguridad de la organización.

Max Grossling, Gerente Senior de Programas Técnicos, Websense, ha creado cinco importantes iniciativas que pueden implementar los Directores de Seguridad.
1.Entienda su negocio. Muchas veces las iniciativas que buscan lucro, incluyendo ventas y marketing, tienden a no incluir la seguridad.
Los riesgos y amenazas que enfrenta su organización son reales y pueden causar consecuencias si decide tomar un enfoque más reactivo hacia la seguridad. Manténgase activo, informando a la Junta Directiva que la seguridad puede ser un importante factor diferenciador desde el punto de vista financiero. A diferencia de otros grupos de TI, la seguridad debe enfocarse en las amenazas. El aumento de la seguridad puede equipararse con el aumento de beneficios y la conservación de datos de la empresa. Dicho esto, no se apresure en la etapa de planeación de la estrategia de seguridad de TI.
2. Comprenda el papel de la seguridad. En el entorno actual la tecnología nos consume. Normalmente nos olvidamos de las personas y procesos, que son realmente lo que hace que nuestras empresas sean exitosas. Como líderes, tenemos que vender ideas. La tecnología por sí sola es apenas un vendaje que tiene que ir de la mano con otros elementos. Si desea lograr la seguridad completa de TI, debe integrar procesos y gobernabilidad para asegurar el éxito. Todos sus empleados, desde la Junta Directiva hasta los de servicio al cliente, deben tener una mutua comprensión de la misión y estrategias de su departamento. Esto pondrá a prueba conocimientos de sus empleados acerca de amenazas actuales y cómo detectarlas, y le dará una buena idea de cómo responden ellos ante la situación. Otro desafío consiste en poner a prueba su servicio de mesa de ayuda para identificar cómo pueden robarse una contraseña durante el proceso de reinicio del sistema. Este ejercicio le permitirá identificar amenazas potenciales y casos de abuso.
3. Comprenda la “información.” Su objetivo final permite obtener la sabiduría y conocimiento de la función de seguridad de TI y cómo se relaciona con su empresa. Esto permite que deje de ser un grupo operativo de seguridad para convertirse en un equipo de inteligencia de seguridad. Usted no sólo debe disponer de datos e información, sino que se hace necesario tener la capacidad de analizar la información y aprovechar sus resultados para contar una historia convincente. De este modo, usted está listo para diseñar un programa de seguridad y proteger suficientemente a la organización contra pérdida o robo de datos.
4. Establezca gobernabilidad. Por definición, la gobernabilidad es la capacidad de esbozar expectativas, garantizar esfuerzos y validar el desempeño. Para lograrlo, se requiere crear una misión de gran alcance entorno a sus iniciativas de seguridad de TI dentro de su organización. De esta manera, puede definirse claramente a quién se reporta en seguridad, junto con sus funciones y responsabilidades. Asegurar la alineación operativa en todos los departamentos ayudará a involucrar a empleados de su organización, haciéndolos más conscientes de la arquitectura de seguridad.
5. Convierta los riesgos en iniciativas financiadas. Por último, pero no menos importante, debe aprovechar su modelo de gobernabilidad para transformar las iniciativas de seguridad de la información en esfuerzos financiados. Al colaborar con la alta dirección para determinar su misión, prioridades e iniciativas, sus proyectos inherentemente se convertirán en objetivos patrocinados y apoyados en todos los ámbitos. También es imprescindible mantener a los directivos al tanto de riesgos, noticias e información. Su junta directiva querrá ver sus iniciativas y lo que usted tiene para ofrecer; ellos no están interesados en saber cómo usted mantiene su status quo.

jueves, 16 de mayo de 2013

Lo que el personal IT desea más que salario

Lo que el personal IT desea más que salario


Aunque se podría pensar que un mayor nivel de satisfacción de los ejecutivos IT con la compensación podría intervenir aquí, si escarbamos un poco entre los datos, éstos nos cuentan una historia diferente.
Como escribí en el reporte, “comparado con los empleados IT, quienes están satisfechos o muy satisfechos con sus salarios el 59% del tiempo, y satisfechos o muy satisfechos con sus empleos en general el 63% del tiempo, los ejecutivos IT sólo están algunos puntos porcentuales por arriba. El 65% de ellos se dice muy satisfecho o satisfecho con sus salarios, y el 70% está muy satisfecho o satisfecho en general con todos los aspectos de sus empleos. La ligera ventaja sobre los empleados en estas categorías no es tanto el nivel de engreimiento ‘que coman pastel’ que el personal IT podría imaginar”.

miércoles, 15 de mayo de 2013

#Épsilondc, México, ¿Podría Convertirse en una Comunidad Digital?

http://instalacionesrv.com/?p=6170


El Gobierno del DF tiene el interés de abordar el concepto Comunidad Digital.

  • Se colocarán sistemas de eficiencia eléctrica, iluminación LED, para controlar consumos energéticos.
Hay muchas iniciativas. El propio Gobierno del DF está dando sus primeros pasos. Tal es el caso del famoso G4, bunker devideovigilancia, que si bien se perfila para los propósitos de una Comunidad Digital, aún falta mucho por hacer, para darle uso óptimo a la infraestructura.
En otras palabras, el Gobierno del DF, como otros Gobiernos en México, tiene el interés de abordar el concepto Comunidad Digital. Sin embargo, al respecto, todavía falta conocimiento. De la misma manera que le falta conocimientos a Gobiernos como el de Madrid, Paris, Nueva York, Brasil, Holanda, Ámsterdam. Nuestra idea es abordar un problema global. Por ejemplo, Málaga dice, “vamos a reducir el consumo energético en un 30%”.
Entonces, consideran, “montaremos sistemas de eficiencia eléctrica, que es iluminación LED´s, sistemas para controlar consumos energéticos en fábricas, sensores para controlar niveles de presencia, etc., en hospitales, edificios públicos, lugares donde se consume más energía eléctrica”, y, así, actúan sobre un modelo único, pero en distintas funcionalidades.

martes, 14 de mayo de 2013

lunes, 13 de mayo de 2013

¿Es el factor humano el mejor certificado?

http://www.datacenterdynamics.es/focus/archive/2013/05/factor-humano-%C2%BFmejor-certificado


A nadie se le escapa que la construcción de un Data Center supone un esfuerzo enorme en muchos aspectos: económicos, de diseño, de instalación, de configuración según las recomendaciones de los fabricantes, de prueba a nivel de módulo, de integración y de explotación. Asimismo, en su implantación intervienen diversos sistemas: eléctricos, de gestión del edificio, de clima y acondicionamiento de los espacios, de protección contra incendios, de seguridad y control de accesos, de infraestructuras TI y de comunicación.
Cada vez que visitamos diferentes ferias y congresos podemos ver como los diversos componentes de estos sistemas ganan (aún más) “inteligencia”, una palabra tantas veces repetida que hasta los yogures cuentan con ella, según la publicidad de hoy en día. Y si esto es así, ¿qué no podrán hacer por sí mismos routers, DCIM o UPS actuales?
Si además unimos a la pócima de las instalaciones el ingrediente “Tier”, entonces parecerá que nadie puede rebatir que el dinero ha sido bien invertido.

viernes, 10 de mayo de 2013

#EPSILONDC, VACANTES!!!!


 En Épsilon, (Pioneros en Data Center) requerimos que formes parte de nosotros, si alguna de las siguientes vacantes se adecua a tu perfil te esperamos a partir de la próxima semana (lunes a viernes) en Bartolomé R. Salido 129 Col. Vértiz Narvarte Deleg. Benito Juárez de 09:00-13:00 hrs con tu CV ó Solicitud Elaborada.
  • Técnico de mantenimiento de UPS con experiencia mínima de un año.
  • Técnico de mantenimiento de Aire Acondicionado de Precisión con experiencia mínima de un año.
  • Técnico de mantenimiento de CCTV , con experiencia mínima de un año
  • Ingeniero Electromecánico para supervisión de mantenimiento y administración de garantías de: UPS,Aire Acondicionado, Plantas de Emergencia. 
CONTACTO:
Lic. Veronica Martinez
25950997

¿Qué es el PUE?


Es la realización de utilización de energía necesaria en infraestructura que soporta un Centro de Datos contra la energía necesaria que utiliza la TI que provee los servicios de ese mismo Centro de Datos.
Se dice que el promedio de esa utilización es de la siguiente forma: por cada watts que utiliza la TI hay otro watts que utiliza la infraestructura que emplea el Centro de Datos.
Es decir la infraestructura que soporta el centro de datos se va a concentrar principalmente en la climatización, en las UPS’S y en la subestación principalmente, aunque hay otros elementos como la iluminación que va a consumir energía. Todo eso va a soportar la TI que provee los servicios a los usuarios.

jueves, 9 de mayo de 2013

Emerson Network Power ha presentado un White paper para las instalaciones de colocation rentable


http://www.datacenterdynamics.es/focus/archive/2013/05/emerson-perfila-las-mejores-pr%C3%A1cticas-para-crear-un-colocation-rentable

En el white paper presentado por la firma se detallan tecnologías como UPS con escalabilidad, Busway modular o sistema eco-mode

Proveedores de colocation que han instalado nueva tecnología a un mayor ratio que los data center empresariales (Emerson, Otoño 2012).
Emerson Network Power ha presentado un White paper para las instalaciones de colocation con una serie de mejores prácticas para construir una infraestructura de data center escalable que les permitirá –en palabras de la compañía- añadir rápidamente clientes, a la vez que optimizan su cuenta de resultados en cada estadio del uso de la infraestructura.
El White paper, titulado “Building a More Profitable Colocation Environment,” da una visión en profundidad a una serie de nuevas tecnologías y enfoques de infraestructura al data center que se adaptan de forma idónea a los proveedores de colocation, para “mejorar la flexibilidad de los entornos de data center, incrementar la eficiencia y salvaguardar la disponibilidad.
“Los gestores de data center están saturados a la hora de hacer frente a las crecientes necesidades de capacidad, a la vez que sufren limitaciones por los presupuestos ajustados y las iniciativas en torno a la eficiencia energética. Muchos están considerando utilizar instalaciones de colocation como una alternativa a construir sus propios entornos”, señala Chuck Spears, presidente de ventas de Norte América de Emerson Network Power.
“Para que las facilities de colocation capitalicen este incremento del interés y la demanda del cliente, es muy importante que ofrezcan en su proposición de valor el hacerlo barato y rápido a la vez que proporcionan una disponibilidad mayor que lo que pudiera hacer la propia organización. Para hacer esto, necesitan una infraestructura de data center sofisticada y escalable que les permita sumar usuarios de forma rápida y optimizar la eficiencia energética.
El white paper de Emerson pone de relieve que a medida que los proveedores de colocation trabajan para satisfacer la demanda de sus servicios, están llevando a cabo cambios importantes en la industria. Las demandas de los clientes, como la rapidez de despliegue, eficiencia energética, alta disponibilidad y capacidad bajo demanda, están llevando a los proveedores de colocation a incorporar nuevas e innovadoras tecnologías, y según el informe de Emerson Network Power, están instalando la tecnología a un ritmo más rápido que los data centers empresariales.
Las tecnologías de infraestructura de data center que se discuten en este White paper incluyen;
-       UPS con escalabilidad mediante software o hardware
-       Busway modular
-       Sistema de chiller modular
-       Paquetes de data center modular.
-       Sistemas de refrigeración con tecnología de economizadores con refrigerante bombeado

miércoles, 8 de mayo de 2013

En LATAM los presupuestos de Data Center crecen un 10%


Uptime Institute ha anunciado recientemente los resultados preliminares de su encuesta anual de data centers. Desde DatacenterDynamics tuvimos la oportunidad de ponernos al día sobre estos datos con el director de contenido de la organización, Matt Stansberry.
Una conclusión optimista de la encuesta fue que “a pesar de la economía, la demanda de TI sigue creciendo”, dijo Stansberry. Y esta tasa de crecimiento es mayor en los mercados emergentes de América Latina y Asia.
Como resultado, la demanda de servicios de centros de datos para externalización, desde colocation hasta infraestructura cloud, está creciendo también. Esto no significa, sin embargo, que el mercado de data center empresarial esté estancado. Es solo que el mercado de proveedores de servicios está creciendo realmente a un ritmo muy rápido.
Uptime considera a las grandes compañías de Internet como parte del núcleo de servicios tecnológicos, de modo que las cifras de crecimiento en CPDs de compañías como Facebook, Google, eBay y Amazon incrementan las cifras de crecimiento global.
Globalmente, los presupuestos de data center están creciendo. En Latinoamérica, por ejemplo, los presupuestos crecieron más de un 10% en 2012. En Asia, el 44% de los que respondieron a la encuesta indicaron que los presupuestos de data center crecieron ese porcentaje como mínimo. Solo el 32% de los que respondieron en Norteamérica y un 27% en Europa pudieron decir lo mismo.
A nivel global, fueron las grandes operaciones de data centers las que recibieron los mayores incrementos de presupuesto, mientras que firmas de colocation y proveedores de servicios tecnológicos tenían comparativamente más dinero para gastar en data centers de lo que tenían las empresas.
De todos los proyectos de expansión de data center que tuvieron lugar durante los últimos cinco años, la mayor parte fueron incrementos relativamente pequeños en capacidad: menos de 1 MW en cada uno. Estos proyectos representaron un tercio de todas las expansiones indicadas.
Las expansiones de entre 1 MW y 3 MW representaron una cuarta parte de la muestra. El 11% de ellas eran proyectos de entre 3 y 5 MW, el 12% eran de entre 5 y 10 MW, y un 18% de todos los proyectos de expansión fueron de más de 10 MW. Muchas de esas pequeñas expansiones se produjeron en Europa, Asia y Latinoamérica.
Según los resultados de Uptime, cuanto más grande es la infraestructura de TI de la empresa, más probabilidades tiene de añadir más. Alrededor del 80% de las organizaciones que gestionan más de 5.000 servidores construyeron nuevas infraestructuras en los últimos cinco años. En torno al 40% de ellas añadió más de 10 MW.
Por primera vez, la encuesta de Uptime preguntó acerca del coste a la hora de construir un data center. Los análisis de los resultados mostraron un rango que abarca desde los 5 millones de dólares por 1 MW o menos (en el 46% de los casos), hasta más de 25 millones por 1 MW (para el 5% de los encuestados).
Éste es el gráfico de coste por megavatio, por cortesía de Uptime Institute:

lunes, 6 de mayo de 2013

Épsilondc, EMERSON Añade nuevas configuraciones a su LIEBERT APM

Épsilondc, EMERSON añade nuevas configuraciones a su LIEBERT APM

Épsilondc,Diez pasos para enfriar centro de datos de alta densidad


La instalación compacta de servidores Blade en un único rack produce un aumento en la
potencia requerida y el calor disipado, lo que genera concentraciones de calor en algunos
centros de datos. Es poco probable que un centro de datos tradicional, con unidades de
aire acondicionado para salas de cómputo (CRAC) que suministran circulación de aire a
través de una cámara de piso elevado, pueda proveer una capacidad de enfriamiento
superior a 3 kW a un rack, independientemente de la cantidad y capacidad de las unidades CRAC y la profundidad de piso.La capacidad máxima de enfriamiento suministrada a un rack en particular será aun menor en salas con distribución de aire por pasillo saturado sobre un piso no elevado. En la actualidad, están surgiendo soluciones
de enfriamiento para un rack que aumentan la capacidad de enfriamiento a niveles que superan ampliamente los 10kw por rack.
Al diseñar el sistema de enfriamiento de un centro de datos, el objetivo es crear un camino despejado desde la fuente del aire enfriado hasta las entradas de aire de los servidores.
Asimismo, debe crearse un camino despejado desde la salida de aire caliente de los servidores hasta el ducto de retorno de aire de la unidad CRAC. Sin embargo, existen algunos factores que pueden tener un efecto adverso respecto de ese objetivo.
En las próximas diez secciones se describen los pasos que pueden seguirse para enfrentar las causas fundamentales de la falta de eficiencia y capacidad en materia de enfriamiento. Estos diez pasos se presentan en orden de grado, siendo el primero el más sencillo y rentable. Si el objetivo es alcanzar una densidad de potencia superior a 6kw por rack en un área extensa del centro de datos, probablemente sea más apropiado contemplar directamente las medidas más extremas, como las de los pasos 9 y 10, y saltar los pasos anteriores.
1. Realizar controles de integridad
Estos controles determinarán la integridad del centro de datos a fin de evitar las fallas de los equipos informáticos relacionadas con la temperatura.
El control de sistemas de enfriamiento debe incluir los siguientes puntos:
*Capacidad Máxima de Enfriamiento
*Unidades CRAC (Aire Acondicionado para Salas de Cómputo)
*Agua del enfriador/Ciclo de Condensación
*Temperaturas de la sala.
*Temperaturas de los racks
*Velocidad del aire en las losas
*Circulación de aire dentro los racks
*Disposición de las losas y los pasillos
2. Implementar un régimen de mantenimiento del sistema de
enfriamiento.
Entre las deficiencias que se encontraron pueden mencionarse:
*Serpentines sucios o bloqueados que obstruyen la circulación del aire
*Sistemas DX subcargados.
*Puntos de control ubicados incorrectamente.
*Sensores dañados o sin calibrar.
*Tuberías de suministro y retorno invertidas.
*Válvulas defectuosas.
*Bombas defectuosas.
*Bombas en funcionamiento innecesariamente.
*Sistemas de aprovechamiento de enfriamiento que no fueron puestos en marcha
3. Instalar paneles de obturación e implementar un régimen
de organización del cableado
El espacio vertical sin utilizar en los racks provoca que el aire caliente extraído de los
equipos encuentre un “atajo” hacia la entrada de aire de los mismos equipos. El reciclado
irrestricto del aire caliente causa que los equipos se recalienten innecesariamente.
La alimentación a los equipos debe proveerse por medio de unidades PDU de montaje en rack con cables acortados a la longitud adecuada.
4. Retirar obstáculos bajo el piso elevado y sellar el piso elevado.
En los centros de datos con piso elevado, el espacio bajo el piso se utiliza como cámara o ducto para hacer llegar el aire frío desde las unidades CRAC hasta las losas perforadas o rejillas de piso ubicadas al frente de los racks. A menudo, este mismo espacio también se usa para otros servicios, como sistemas de alimentación, tuberías de enfriamiento,cableado de red y, en algunos casos, suministro de agua o detección y extinción de Incendios.Las losas de piso faltantes deben completarse y sellarse para que no existan filtraciones de aire. Los recortes en el piso para pasar cables causan la mayoría de las filtraciones de aire no deseadas por lo que debe colocarse un sellado alrededor de los cables. Si existen losas con recortes que no usan, deben reemplazarse por losas enteras.Las losas perforadas adyacentes a racks vacíos o faltantes también deben reemplazarse por losas enteras.
5. Separar los racks de alta densidad
La razón fundamental por la que distribuir las cargas de alta densidad es una solución
eficaz es que si los racks de alto consumo de potencia se encuentran aislados, pueden
“tomar prestada” la capacidad de enfriamiento que los racks adyacentes no utilicen. Sin
embargo, el préstamo no se produce si los racks adyacentes aprovechan toda la capacidad de enfriamiento disponible.
6. Implementar una configuración de pasillo caliente/pasillo frío
Una mejor práctica consiste en disponer los equipos en una configuración de pasillos
“calientes” y “fríos” alternados. En los pasillos fríos se colocan las losas de piso perforadas, y los racks se ubican de manera que todos los frentes de servidores ( y sus
entradas de aire) miren a un pasillo frío. El aire caliente se extrae hacia el pasillo caliente, que no posee losas de piso perforadas.
Esta configuración de pasillo caliente/pasillo frío también puede aplicarse en entornos con
piso convencional.
7. Alinear las unidades CRAC con los pasillos calientes
Si se tiene un sistema de enfriamiento con piso elevado, es más importante alinear las
unidades CRAC con la vía de retorno de aire (pasillos calientes) que con la vía de
suministro de aire por la cámara bajo el piso elevado (pasillos fríos).
8. Organizar las rejillas del piso
La clave para una buena ubicación de las rejillas para suministro de aire es colocarlas tan
cerca como sea posible de la entrada de aire de los equipos, lo que maximiza la
conservación de aire frío en los pasillos fríos. En los casos de distribución de aire debajo
del piso elevado, esto implica colocar losas perforadas solo en los pasillos fríos.
9. Instalar dispositivos para aumentar la circulación de aire
Cuando la capacidad total de enfriamiento promedio es adecuada, pero se han generado
concentraciones de calor por el uso de racks de alta densidad, es posible enfriar mejor las
cargas dentro de los racks mediante la incorporación de dispositivos asistidos por
ventiladores que mejoran la circulación de aire y pueden aumentar la capacidad de
enfriamiento a un nivel de entre 3 y 8 kW por rack. Como sucede con todos los dispositivos
de extracción de aire, debe tenerse cuidado al posicionar el dispositivo para asegurar que
el aire que se toma del espacio lateral no produzca un sobrecalentamiento de los racks
adyacentes.
10. Instalar dispositivos autónomos para alta densidad
Cuando los requisitos de energía y enfriamiento dentro de un rack superan los 8 kW, se
vuelve cada vez más difícil suministrar una corriente de aire frío sostenida a las entradas
de todos los servidores si solo se cuenta con la circulación de aire proveniente de las losas
perforadas del piso. En situaciones de alta densidad extrema, con consumos superiores a
los 8 kW por rack, se requiere que el aire frío se suministre directamente a todos los
niveles del rack (y no desde la parte superior o inferior) para asegurar una temperatura
uniforme en todos los niveles.
Los sistemas autónomos para enfriamiento de alta densidad que cumplen con este
objetivo están diseñados para instalarse en un centro de datos sin tener impacto en
ningún otro rack ni en los sistemas de enfriamiento existentes.