viernes, 28 de junio de 2013

#Épsilondc, Puntos a considerarse cuando eliges un experto en Mantenimiento Preventivo

  1. El proceso de MP debe estar bien definido tanto para el proveedor del mantenimiento como para el propietario del centro de datos. El proveedor del MP debe enviarle al propietario una exposición detallada y clara del alcance del trabajo del MP. 
  2. Disposiciones para el envío de personal: la mayoría de los fabricantes recomiendan realizar de tres a cuatro mantenimiento preventivo al año de la instalación y puesta en marcha de los equipos,aunque ciertos componentes de mucho uso (como los humidificadores) pueden necesitar un análisis antes y un monitoreo constante.
  3. Deben seguirse protocolos adecuados a fin de asegurar un acceso sencillo a los equipos en el establecimiento del centro de datos. También deben tenerse en cuenta las restricciones operativas del propietario.
  4. Debe formularse un plan para que los equipos puedan ajustarse de modo de proporcionar un rendimiento óptimo.
  5. Disposiciones para el reemplazo de repuestos: la exposición del alcance del trabajo debe incluir recomendaciones respecto de qué partes necesitan reemplazarse o actualizarse en forma preventiva. La exposición del alcance del trabajo debe contemplar problemas como la disponibilidad de repuestos en existencias, el suministro de repuestos probados y certificados,planes de contingencia en caso de detectar partes defectuosas y la extracción y el desecho de partes desgastadas.
  6. Documentación: la exposición del alcance del trabajo debe incluir un informe de resultados del MP que documente las medidas tomadas durante el mantenimiento. El informe de resultados también debe ser revisado inmediatamente por el proveedor para realizar un seguimiento técnico.

jueves, 27 de junio de 2013

#Épsilondc, Factores que impulsan el Mantenimiento Preventivo

Las temperaturas exteriores extremadamente altas o extremadamente bajas y temporadas de tormenta pueden suponer riesgos significativos. Si los datos climáticos indican que abril y septiembre son los meses óptimos para realizar tareas de MP, deben considerarse las ventajas y desventajas. Por ejemplo, ¿hay planificado algún proyecto de construcción en las cercanías durante alguna de las “ventanas” propuestas para efectuar el MP? Si es así, puede ser importante considerar la mayor probabilidad de registrar cortes en el suministro debido a accidentes causados por la construcción (por ejemplo, si algún equipo de la construcción corta accidentalmente conductos de energía y agua). Si se produjera un tiempo de inactividad del sistema de enfriamiento del centro de datos, ¿temperaturas más bajas ayudarían a proporcionar un enfriamiento natural para el centro de datos? Si según los datos climáticos septiembre es un mes óptimo para realizar el MP, ¿es conveniente programarlo para el final del trimestre, cuando los sistemas financieros están funcionando en plena capacidad?
Un enfoque posible es programar las tareas de MP en diferentes momentos. Movilizar a todos los miembros clave del personal simultáneamente podría presentar un peligro ya que comprometería la cobertura y el soporte que esperan tanto los usuarios como los clientes. Si la falta de recursos humanos es un problema,la programación de tareas de MP en distintas fases distribuirá las responsabilidades del mantenimiento en forma más pareja y permitirá que el centro de datos mantenga sus niveles de servicio deseados.
Si, en cambio, el acceso a los recursos humanos no es un problema, otro enfoque posible sería realizar todo el mantenimiento preventivo de una sola vez el mismo día o los mismos días y no en diferentes etapas. En vez de programar varias instancias con distintas organizaciones, se le pide a un mismo socioque proporcione el mantenimiento preventivo de la infraestructura clave, lo programe y lo realice. Este “MP orientado a las soluciones” (a diferencia del tradicional orientado a los componentes) realizado por un socio calificado puede ahorrar tiempo y dinero y mejora el rendimiento general del centro de datos. La prioridad esencial es programar el MP con un proveedor de servicios calificado cuando las perturbaciones en el centro de datos son mínimas y cuando se maximizan las opciones de recuperación.

miércoles, 26 de junio de 2013

#Épsilondc,Soluciones de Refrigeración para Centro de Datos

  • Los sistemas de acondicionamiento de aire de precisión regulan la temperatura y la humedad en áreas de tecnología sensible.
Los servidores modernos tienen mucha potencia. Sus procesadores controlan con fiabilidad procesos empresariales críticos 24/7, 365 días al año. Pero donde hay potencia informática, también hay un nivel de calor considerable. Como los ordenadores sólo funcionan con fiabilidad a determinadas temperaturas, el control del clima es esencial. Cuanto más eficiente es la refrigeración, menos electricidad consume el Centro de Datos.
Para la tecnología médica y de sala limpias
En la tecnología médica, debe garantizarse la disponibilidad de equipos e instrumentos vitales para la vida. El enfriador de datos para interiores STULZ CyberCool proporciona tres sistemas diferentes para garantizar el necesario suministro de agua fría totalmente independiente y con elevada disponibilidad.
En las salas limpias, apenas hay cargas de calor. Aquí la clave es la producción suficiente de aire, el control preciso de temperatura y humedad y la calidad constante del aire.
La IT y las telecomunicaciones son de vital importancia para la economía, ciencia y administración general. Incluso los tiempos de inactividad más cortos en los sistemas TIC pueden provocar una parada global y la pérdida de datos sensibles. Un entorno operativo ideal es el requisito previo para un funcionamiento continuo y fiable que garantice la disponibilidad sin interrupciones.
La experiencia de Stulz en la refrigeración de precisión de los Centros de Datos crea las condiciones óptimas para la infraestructura informática de alta disponibilidad.

martes, 25 de junio de 2013

#Épsilondc, Seguridad al Construir Centro de Datos

Empresas a nivel global continúan buscando la posibilidad de ahorrar y economizar recursos para obtener mejores beneficios. Los Centros de Cómputo o Data Centers representan una oportunidad para lograrlo, con retorno de inversión a corto plazo y efectividad inmediata en los sistemas de redes. A esta causa, también se suman instaladores a nivel mundial, con el objetivo de conformar Salas de Cómputo, demandadas actualmente por diversas compañías.
“En particular, el tema de instalaciones de construcción siempre tendrá una relación intrínseca con el terreno de tecnología. Esa es una tendencia que estaremos viviendo, pues al mercado se suman más empresas interesadas en construir Centros de Datos”, comentó José Luis Barraza, en entrevista para Instalaciones, Revista de Ingeniería.
Como tema de seguridad física, dentro del site, no tenemos una solución que vaya orientada a esta parte. Sin embargo, contamos con seguridad para sistemas de datos. En otras palabras, esto tiene que ver más con tecnología, que con algo físico, ya que nosotros estamos enfocados a la seguridad de nuestros servidores.

lunes, 24 de junio de 2013

#Épsilondc, Detección Predictiva de Fallas

Se recomienda tomar lecturas térmicas en racks y paneles de disyuntores durante las tareas de mantenimiento preventivo. Si se detectan temperaturas anormales, se pueden tomar las medidas necesarias. Las lecturas infrarrojas pueden compararse a lo largo del tiempo para identificar tendencias y problemas potenciales. De esta manera, por ejemplo, es posible reajustar conexiones eléctricas a partir de datos científicos en lugar de hacerlo a partir de especulaciones.
El enfoque de lecturas térmicas también puede aplicarse a tableros de transferencia, transformadores, interruptores, unidades UPS, tableros de paneles de distribución, unidades de distribución de energía e interruptores para desconexión de unidades de aire acondicionado.
La Dinámica de Fluidos Computacional (CFD) también puede utilizarse para analizar los patrones de circulación de aire y temperatura dentro del centro de datos y determinar el efecto de las fallas en los equipos de enfriamiento.
Al utilizar un enfoque de detección predictiva de fallas, los capacitores, por ejemplo, se reemplazan sólo cuando se recomienda según un diagnóstico incorporado continuo. Esta estrategia contrasta claramente con el enfoque tradicional según el cual se reemplazaban componentes una vez transcurrido un lapso específico de tiempo. La implementación de prácticas de detección predictiva de fallas evita la ejecución innecesaria de procedimientos invasivos que conllevan el riesgo inherente de errores humanos que pueden causar tiempos de inactividad.
La Tabla  presenta una lista de muestra de dispositivos de la infraestructura física que requieren MP. Estos sistemas interactúan entre sí, y su mantenimiento debe realizarse en forma conjunta.
Dispositivos que requieren un mantenimiento preventivo en el Data Center
  • Transformador
  • PDU
  • Sistema de Distribución de agua y aire del Centro de Datos
  • Unidad CRAC por hielera
  • UPS
  • Piso Elevado
  • Humidificador
  • Interruptor de Transferencia
  • Baterías externas
  • Sistema de Alarma contra incendio
  • Planta de Agua Helada
  • Generador

viernes, 21 de junio de 2013

#Épsilondc, Evite fallas en el mantenimiento de su Data Center

El mantenimiento realizado por personal calificado permite confirmar que los equipos de la infraestructura física estén funcionando correctamente para cumplir con los objetivos de productividad del sistema planteados por el propietario del centro de datos. Los profesionales especialistas en infraestructura física con experiencia en centros de datos pueden identificar el desgaste de diversos componentes internos y en qué medida un componente en particular afecta la confiabilidad general del sistema.
El profesional de MP debe observar el entorno del centro de datos (disyuntores, prácticas de instalación,técnicas de cableado, conexiones mecánicas, tipos de carga) y alertar al propietario sobre el posible desgaste prematuro de componentes y sobre factores que puedan tener un impacto negativo en la disponibilidad del sistema (es decir, equipos en los que puedan producirse errores humanos durante su manejo, temperaturas más altas de lo normal, niveles altos de acidez, corrosión y fluctuaciones en el suministro de energía de los servidores.
Lecturas térmicas y detección predictiva de fallas
Se recomienda tomar lecturas térmicas en racks y paneles de disyuntores durante las tareas de mantenimiento preventivo. Si se detectan temperaturas anormales, se pueden tomar las medidas necesarias. Las lecturas infrarrojas pueden compararse a lo largo del tiempo para identificar tendencias y problemas potenciales. De esta manera, por ejemplo, es posible reajustar conexiones eléctricas a partir de datos científicos en lugar de hacerlo a partir de especulaciones.El enfoque de lecturas térmicas también puede aplicarse a tableros de transferencia, transformadores,interruptores, unidades UPS, tableros de paneles de distribución, unidades de distribución de energía e interruptores para desconexión de unidades de aire acondicionado.
La Dinámica de Fluidos Computacional (CFD) también puede utilizarse para analizar los patrones de circulación de aire y temperatura dentro del centro de datos y determinar el efecto de las fallas en los equipos de enfriamiento.Al utilizar un enfoque de detección predictiva de fallas, los capacitores, por ejemplo, se reemplazan sólo cuando se recomienda según un diagnóstico incorporado continuo. Esta estrategia contrasta claramente con el enfoque tradicional según el cual se reemplazaban componentes una vez transcurrido un lapso específico de tiempo. La implementación de prácticas de detección predictiva de fallas evita la ejecución innecesaria de procedimientos invasivos que conllevan el riesgo inherente de errores humanos que pueden causar tiempos de inactividad.

jueves, 20 de junio de 2013

#Épsilondc, El Diseño del software es fundamental para el éxito

El diseño del hardware de la infraestructura física permite reducir el costo y la complejidad del
mantenimiento preventivo. El diseño de software eficiente para la administración de la
infraestructura física esta comenzando a considerarse el factor más importante para el éxito a la hora de mantener alta disponibilidad. Los centros de datos de primer nivel aprovechan el software de administración de la infraestructura física.
Mediante el autodiagnóstico, los componentes de la infraestructura pueden informar las horas de uso, emitir advertencias cuando la temperatura de un componente en particular no está dentro de las temperaturas normales de funcionamiento, e indicar cuando los sensores detectan lecturas anormales. Si bien el personal de mantenimiento preventivo aún debe procesar el resultado de las comunicaciones del sistema de gestión de mantenimiento, hay una nueva tendencia que propone evolucionar hacia sistemas de infraestructura física capaces de recuperar su integridad por sí solos.
Los propietarios de centros de datos que tienen visión de futuro contemplan una estrategia holística de mantenimiento preventivo para todo el centro de potencia del centro de datos. Si bien el soporte tradicional de MP para los equipos existentes sigue desempeñando un papel importante, la estrategia de mantenimiento de los equipos que se agreguen en el futuro debe adoptar un enfoque de MP que contemple el centro de datos como un todo integrado en lugar de verlo como un conjunto de componentes individuales.
Un análisis más exhaustivo ayuda a clarificar la evolución del mantenimiento preventivo basado en los componentes hacia el MP de todo el centro de potencia o de todo el ciclo de enfriamiento. Tomemos como ejemplo un componente de la infraestructura física, la unidad UPS (sistema de energía ininterrumpible).
Cuando surge un problema de alimentación, no siempre se relaciona con la unidad UPS. El problema, en cambio, puede estar relacionado con un disyuntor, un interruptor o un circuito defectuoso. Es importante contar con un sistema de monitoreo que vincule todos estos componentes críticos y comunique los datos recabados a una persona que comprenda el centro integrado de alimentación y que sepa interpretar correctamente los mensajes del sistema.

miércoles, 19 de junio de 2013

#Épsilondc, ¿Qué es un Mantenimiento Preventivo?

El término mantenimiento preventivo se refiere a la inspección y detección sistemáticas de fallas potenciales antes de que se produzcan. Es un término amplio que abarca diversos enfoques para evitar y prevenir problemas, dependiendo de la criticidad del centro de datos. Por ejemplo, el mantenimiento basado en las condiciones es un tipo de MP que calcula y proyecta las condiciones de los equipos en el transcurso del tiempo con fórmulas de probabilidad para evaluar los riesgos de tiempos de inactividad.
El MP no debe confundirse con el mantenimiento no planificado, que se realiza ante una emergencia o un problema imprevisto. En la mayoría de los casos, el MP incluye el reemplazo de componentes, la lectura térmica de los paneles de distribución, ajustes de los componentes o del sistema, la limpieza de filtros de aire o agua, la lubricación o la actualización del firmware de la infraestructura física.
En su nivel más básico, el MP puede implementarse como estrategia para mejorar el rendimiento en términos de disponibilidad de un componente particular del centro de datos. En un nivel más avanzado,puede aprovecharse como una estrategia principal para asegurar la disponibilidad de todo el centro de potencia (generadores, interruptores de transferencia, transformadores, disyuntores e interruptores,unidades PDU y UPS) y de todo el centro de enfriamiento (unidades CRAC y CRAH, humidificadores,condensadores, plantas de agua helada).
Resultados del mantenimiento preventivo
El mantenimiento preventivo puede dar como resultado una de estas cuatro situaciones:
  •  Se identifica un problema potencial y se toman medidas inmediatas para evitar fallas futuras. Éste es el resultado más frecuente de las tareas de MP.
  •  Se identifica un problema nuevo y se programan las tareas de reparación adecuadas.

Estos resultados del MP deben documentarse con precisión para que tanto el proveedor del servicio como el propietario del centro de datos puedan comparar el incidente más reciente con las instancias anteriores de MP y así realizar un análisis de tendencias.

martes, 18 de junio de 2013

#Épsilondc, ¿Sabes cuáles son las fallas de los componentes de la infraestructura física?

Las unidades UPS antiguas (las instaladas durantes los años ochenta y noventa) deben ajustarse regularmente de forma manual para evitar que se produzcan desviaciones de tensión y condiciones fuera de los niveles de tolerancia. Por ejemplo, los tableros de control de las unidades UPS requerían que la calibración de los potenciómetros la ajustara un técnico manualmente cada tres meses con un osciloscopio.
En la actualidad, esta misma función la cumple un microprocesador incorporado. La recalibración periódica ayuda a minimizar la posibilidad de falla de la unidad UPS.
Las unidades UPS más modernas se supervisan con controladores de procesamiento digital de señales.
Gracias a estos dispositivos, no se producen desviaciones ni se precisan recalibraciones salvo que se reemplacen componentes importantes. Además de las condiciones fuera de los niveles de tolerancia, las armónicas y las sobretensiones también tienen un efecto negativo sobre los componentes de alimentación de la infraestructura física.
Las fluctuaciones de temperatura son otra causa común de falla en los componentes electrónicos. Los productos electrónicos están diseñados para tolerar rangos de temperatura específicos. Si las temperaturas permanecen dentro del rango de diseño de los equipos, rara vez se producen fallas. Sin embargo, si las temperaturas están fuera del rango admitido, la tasa de fallas aumenta significativamente. En efecto, de acuerdo con estudios realizados por investigadores en cómputos de alto rendimiento en el Laboratorio
Nacional de Los Álamos de los Estados Unidos (Los Alamos National Laboratory), la tasa de fallas se duplica con cada incremento de 10° C (18° F) 1 (véase la Figura 5).
De acuerdo con el Comité Técnico 9.9 de la Asociación de Ingenieros en Calefacción, Enfriamiento y Aire Acondicionado de los Estados Unidos (American Society of Heating, Refrigeration, and Air Conditioning Engineers, ASHRAE), el rango de temperatura operativa recomendado para equipos informáticos es de 20ºC a 25° C (68º F a 77° F). La circulación de aire adecuada puede ayudar a mantener una temperatura segura y constante y a mantener condiciones ambientales que redunden en una mayor vida útil del
componente y un mayor intervalo entre fallas. La corriente excesiva es otra causa de daño a componentes internos. Los sistemas mecánicos también necesitan una inspección para detectar el desgaste normal o anormal de rodamientos, así como el recambio periódico de aceites y lubricantes.
Épsilon, Pioneros en Data Center

lunes, 17 de junio de 2013

Pruebas superadas para llegar a un Mantenimiento Preventivo

La infraestructura física de hoy es mucho más confiable y más fácil de mantener que en el pasado. Los fabricantes compiten para diseñar componentes que tengan la menor cantidad de errores posible. Algunos ejemplos de mejoras en el diseño de hardware son:
• Unidades de aire acondicionado de salas de cómputo (CRAC) con acceso lateral y frontal a los componentes internos (además del acceso trasero tradicional)
• Controles de velocidad de frecuencia variable (VFD) en dispositivos de enfriamiento para controlar la velocidad de los ventiladores internos de enfriamiento. Los VFD eliminan la necesidad de realizar el mantenimiento de las correas móviles (piezas que tradicionalmente requieren un alto nivel de mantenimiento)
• Función de bypass de mantenimiento externo de la unidad UPS que puede eliminar el tiempo de inactividad de los dispositivos informáticos durante las tareas de MP.
Además de las mejoras en el hardware, la arquitectura y el diseño de la infraestructura también evolucionaron de tal modo de sustentar los objetivos del mantenimiento preventivo: lograr una planificación más sencilla, con la menor cantidad de instancias de mantenimiento y mayor seguridad. Por ejemplo:
• Los diseños de alimentación o enfriamiento redundantes permiten realizar el mantenimiento
simultáneamente; la carga informática crítica está protegida incluso cuando se realizan tareas de mantenimiento
• El diseño adecuado de conexiones con mordazas (que brindan una conexión eléctrica y mecánica)
puede reducir o eliminar la necesidad de reajustar el torque, lo cual si se realiza en exceso, puede aumentar la exposición a potenciales explosiones causadas por arcos eléctricos
• Últimamente la preocupación por los peligros de estas explosiones está influyendo en el diseño del sistema, a fin de proteger al personal de MP contra los riesgos de lesiones por causas eléctricas durante el mantenimiento.
#Épsilondc, Pioneros en Data Center

viernes, 14 de junio de 2013

#Épsilondc, Primeras Prácticas de Mantenimiento Preventivo

En los centros de datos de la década de los sesenta, se concebía a los componentes de los equipos del
centro de datos como sistemas comunes de soporte del edificio, y se les brindaba mantenimiento como
tales. En esa época, el centro de datos era una herramienta auxiliar a los negocios principales, y las tareas
de procesamiento de los negocios más importantes se realizaban manualmente. El propietario del centro de
datos no consideraba necesario gastar dinero en mantenimiento. Por otra parte, los fabricantes estaban
interesados en la instalación de los equipos, pero el negocio de las reparaciones no era algo que les
importara.
Con el tiempo, las computadoras comenzaron a realizar muchas tareas importantes de negocios. A medida
que cada vez más activos de datos corporativos empezaban a migrar a los centros de datos, las roturas de
los equipos y los consecuentes períodos de inactividad se convirtieron en una seria amenaza para el
crecimiento y la rentabilidad de los negocios. Los fabricantes de equipos informáticos para centros de datos
comenzaron a reconocer que un programa activo de mantenimiento conservaría la calidad operativa de sus
productos.
Así surgieron contratos anuales de mantenimiento, y muchos propietarios de centros de datos
comprendieron los beneficios de un mayor nivel de servicio. A medida que los datos corporativos
evolucionaban y se convertían en activos fundamentales para la mayoría de las empresas, el
mantenimiento adecuado de los equipos informáticos se convirtió en una necesidad para sustentar la
disponibilidad de las aplicaciones de negocios clave. Hoy en día, el concepto de mantenimiento preventivo
representa una evolución desde la mentalidad orientada al mantenimiento reactivo (“arréglelo, está roto”) a
un enfoque proactivo (“controle, detecte señales de alarma y arréglelo antes de que se rompa”) para así
lograr una disponibilidad las 24 horas del día, los 365 días del año.
#Épsilon, Pioneros en Data Center

jueves, 13 de junio de 2013

#Épsilondc, Consumo de energía en un Centro de Datos Verde

Hay una métrica muy común y utilizada hoy en día en los Centros de Datos que le llaman PUE. Esta no es otra cosa más que la relación de utilización de energía necesaria en infraestructura que soporta un Centro de Datos contra la energía necesaria que utiliza la TI que provee los servicios de ese mismo Centro de Datos.

Se dice hoy por hoy que el promedio de esa utilización está de la siguiente forma –aquí entramos al consumo de energía–: por cada watts que utiliza la TI hay otro watts o más que utiliza la infraestructura que emplea el Centro de Datos.
Explicándolo de una manera más sencilla: la infraestructura que soporta el Centro de Datos se va a concentrar principalmente en la climatización, en las UPS´s y en la subestación principalmente, aunque hay otros elementos como la iluminación que van a consumir energía. Todo eso va a soportar la TI que provee los servicios a los usuarios. Hace alguno años nosotros llegamos a tener una relación de 1.2 watts por cada watts de TI. Una vez que comenzamos a hacer Centros de Datos optimizados energéticamente con diferentes iniciativas, ahora tenemos 0.7 Watts por cada Watts de TI que se requiere.

miércoles, 12 de junio de 2013

Seguridad en Construcción de Centros de Datos

Empresas a nivel global continúan buscando la posibilidad de ahorrar y economizar recursos para obtener mejores beneficios. Los Centros de Cómputo o Data Centers representan una oportunidad para lograrlo, con retorno de inversión a corto plazo y efectividad inmediata en los sistemas de redes. A esta causa, también se suman instaladores a nivel mundial, con el objetivo de conformar Salas de Cómputo, demandadas actualmente por diversas compañías.
“En particular, el tema de instalaciones de construcción siempre tendrá una relación intrínseca con el terreno de tecnología. Esa es una tendencia que estaremos viviendo, pues al mercado se suman más empresas interesadas en construir Centros de Datos”, comentó José Luis Barraza, en entrevista para Instalaciones, Revista de Ingeniería.
Como tema de seguridad física, dentro del site, no tenemos una solución que vaya orientada a esta parte. Sin embargo, contamos con seguridad para sistemas de datos. En otras palabras, esto tiene que ver más con tecnología, que con algo físico, ya que nosotros estamos enfocados a la seguridad de nuestros servidores.

martes, 11 de junio de 2013

Consideraciones en la Construcción de un Data Center

El enfriamiento es considerado perimetral dentro de la norma. Entre las soluciones de enfriamiento se encuentran: pasillos aislados, pasillos fríos, que son autocontenidos, pasillos calientes, etc.
Hemos incorporado a “ICREA-Std-131-2013” soluciones de enfriamiento perfectamente aplicables en espacios sin pisos falsos. Lo que quiero decir es que, en un Data Center, ya es posible la integración de soluciones con esta característica.

¿Qué consideraciones han tenido a propósito de eficiencia energética y sustentabilidad?

Seguimos una normatividad eléctrica. Estamos integrando diferentes tecnologías que hay en el mercado. Tecnologías con tendencias de alta densidad, para el rendimiento de soluciones en Centros de Datos.Dentro de esta normatividad, nosotros tenemos parte a través de agremiados, de personas que participan en reuniones o congresos de revisión. De este modo, podemos contar con la versatilidad de integrar mejores prácticas y mantenernos actualizados, a diferencia de otras normas en el mundo. 
Desde su punto de vista, ¿qué prioridades deben establecerse cuando se diseña un Data Center?
En principio, debe tomarse en cuenta quién lo va a diseñar. Debe ser gente que tenga conocimiento, que esté capacitado, que cuente con experiencia, etc. 
La normatividad ICREA-Std-131-2013 es un libro de consulta, que se va a lanzar en EXPO DataCenter y Congreso Internacional de Infraestructura TI 2013 en la Ciudad de México. Este compendio es una referencia para nosotros como auditores, y sus páginas contienen importantes especificaciones, que favorecen la conformación y óptimo funcionamiento de un Centro de Datos. 

lunes, 10 de junio de 2013

#Épsilondc,Tier I: Sitio de Infraestructura Básico

1.1 El requisito fundamental:
a) Un Centro de Computo Tier I básico no tiene componentes de capacidad redundantes y una sola ruta de distribución, no redundante, sirviendo los equipos informáticos.
 1.2 Las pruebas de confirmación de rendimiento:
a) Tiene capacidad suficiente para satisfacer las necesidades del sitio.
 b) Una interrupción imprevista o falla de cualquier sistema de capacidad, de componente de capacidad, o distribución de elementos puede impactar el equipo de cómputo.
 c) Trabajo planeado requiere que la mayoría o la totalidad de la infraestructura de los sistemas del sitio sean apagadas, cual afecta a equipos, sistemas y usuarios finales. 
1.3 Los impactos operativos:
a) El sitio es susceptible a la perturbación de actividades planificadas así como no-planificadas. Errores de operación (humanos) de los componentes de la infraestructura del sitio causarán una disrupción en el centro de datos.
b) La infraestructura del sitio debe estar completamente apagada cada año para realizar con seguridad mantenimiento preventivo y reparaciones necesarias. Situaciones de urgencia pueden requerir paros más frecuentes. La falta de realizar mantenimiento aumenta significativamente el riesgo de interrupción no planificada, así como la gravedad de la falla consecuente.
Resumen Tier I:
Refleja la necesidad del Cliente para un sitio de infraestructura dedicado al soporte de sistemas de TI e incluye:
• Espacio dedicado para sistemas de TI
• Un UPS para filtrar picos, bajos y apagones momentáneos
• Equipo de enfriamiento dedicado que no sea apagado al fin de día
• Una planta de emergencia para proteger funciones de TI de apagones extendidos.
 
Presentado por Osmo Kuusisto, RCDD

jueves, 6 de junio de 2013

#Épsilondc, Mejores gerentes IT

Los gerentes IT son la capa fundamental de la organización que toca a las masas críticas; son el “punto de conexión”. El gerente IT típico cuenta con una trayectoria de experiencias, pasión y capacidad innata que es inconsistente con la función actual. Como resultado, suele estar mal preparado para motivar y gestionar con eficacia a los profesionales IT.
Los buenos gerentes pueden multiplicar la efectividad del equipo, mientras los malos gerentes reducen mucho la productividad. Es necesario construir una capa de gerentes que energice y “multiplique” (X) el trabajo de equipo; el factor (+ / -) impacta todas las fases del ciclo de vida de los empleados en la empresa:
Reclutamiento – Calidad de las contrataciones y velocidad de plena capacitación (proceso de incorporación)
Desarrollo – Conformación de habilidades, progreso profesional y equipo de alto rendimiento
Retención – Cultura y experiencia laboral, así como nivel de compromiso y rotación (costos)
Para quienes consideren que no tienen administradores reales, sino que son sus mejores técnicos quienes hacen la gestión de personal IT, a continuación unos puntos de cómo mejorar las competencias de gestión de equipo.
Primero, conviene identificar los cinco comportamientos más importantes para el equipo de gestión (lista abajo) y evaluar la capacidad de gestión actual del equipo. Una forma de hacerlo es calificando de 1 a 5 (donde 1 es extremadamente ineficaz; 3, moderado, y 5, muy eficaz) a cada gestor en los siguientes puntos:
  • Establece la dirección (táctica, no estratégica)
  • Fomenta la cultura deseada
  • Lidera
  • Maneja las necesidades individuales
  • Construye un equipo basado en fortalezas individuales
  • Muestra empatía / escucha
  • Comunica (por ejemplo expectativas y prioridades)
  • Elimina las barreras y aboga en favor del personal
  • Administra el desempeño eficazmente
  • Recompensa (incluyendo el reconocimiento)
Para los elementos de la herramienta de auto-evaluación que se marquen como 1 o 2, la sugerencia es desarrollar un plan que contenga:
  • Actividades de desarrollo/capacitación: indicar las actividades y capacitación que se les realizarán para mejorar la competencia. Es válido y conveniente usar una combinación de métodos (formal e informal).
  • Recursos necesarios: Comentar los apoyos financieros y gestiones que se requieren para el éxito.
  • Fecha de Compromiso: Dar prioridad a las actividades de desarrollo y capacitación, según el grado de importancia para obtener mejora significativa en todos los ítems dentro de un periodo de seis a 12 meses.
  • Indicadores de éxito: Responder a la pregunta “¿qué significa el éxito para usted? para cada elemento. ¿Cómo se sabe cuándo se han hecho mejoras?
  • Algunas recomendaciones
  •  Completar las herramientas (auto-evaluación y planificación) con la orientación y apoyo de jefes inmediatos. Estar de acuerdo y programar los puntos de control regulares para mantener el momentum y el sentido de urgencia.
  • Revisar las áreas de carencia en el plano individual, que debe ser construido en orden de prioridades según lo que es más importante para la organización.
  • En intervalos de seis meses, revisar el progreso en contra del benchmark inicial y  el desempeño posterior.
El artículo se basa en el reporte especial para la comunidad EXP de Gartner “Strengthening the Connection Point – Cultivate Better IT Managers”, dirigido por Diane Berry y Lily Mok, ambos vicepresidentes de Investigación de Gartner.

miércoles, 5 de junio de 2013

# Épsilondc, ¿Cómo Cablear un Centro de Datos?

La importancia de las tecnologías de la información ha convertido al centro de datos en la pieza principal para la continuidad de negocio de las empresas. El incremento de datos y su transporte, almacenamiento y procesamiento, nos coloca en una escalada que parece interminable en cuanto a la cantidad de cables de fibra y de cobre que se requieren instalar. Ante la gran diversidad de opciones posibles, elegir el esquema correcto para nuestro centro de datos no es tarea fácil. Algunos esquemas requieren mucho cable, otros mucho equipo de red; algunos se basan en normas, otros en ideas precipitadas. Este artículo puede ofrecerle una luz para su diseño del cableado del centro de datos.

Terminología
Para este documento se ha elegido utilizar los términos definidos en la norma internacional ISO/IEC 24764 Information technology – Generic cabling for Data Centre premises (Tecnología de la información – Cableado genérico para predios de centros de datos). Para mayor claridad, la siguiente tabla contiene la equivalencia de dichos términos con los definidos en la norma ANSI/TIA-942 Telecommunications Infrastructure Standard for Data Centers (Norma de Infraestructura de Telecomunicaciones para Centros de Datos).

martes, 4 de junio de 2013

#Épsilondc, sabes cúal es el límite de potencia de los servidores

Tal como predecían los expertos, el pasado 7 de mayo era la fecha en que los sistemas informáticos iban a alcanzar el límite de su escalabilidad en potencia, momento en que tocaría fondo la proporción de la potencia de los estados ocioso y a plena carga situándose en un 24,7%. Al menos, eso es lo que los números estimaban.
A continuación, pueden leer la segunda parte, donde los autores ahondan en el límite de potencia en los servidores.
Ahorrar 100.000 dólares al año
La tendencia, sin embargo, está clara: los fabricantes de sistemas están mejorando la proporción de consumo de energía de sus sistemas en relación a los requerimientos de carga. Hay que poner de relieve que en los pasados ocho meses, solo un resultado publicado tuvo un IOF mayor de 34%. Uno de los sistemas testados utilizó solo 14W de potencia en estado de reposo activo, mientras que se localizaron datos de rendimiento sin tratar en un tercio de todos los resultados publicados. La mayoría de los resultados de 2012 están agrupados en torno a un IOF del 22-24%.La implicación es que los centros de datos pueden empezar a utilizar menos energía si se utilizan sistemas como los anunciados en diciembre de 2012. Si comparamos el valor promedio de los sistemas en 2007 con el de 2012, hay una reducción del 57% en el consumo en reposo. Si los sistemas se mantienen en reposo el 94% del tiempo (utilizando la cifra media de uso del 6% de McKinsey), entonces el ahorro anual por sistema es de 759kWh, o  alrededor de 80 dólares por servidor al año de coste eléctrico.
Extendiéndolo a la industria, se podrían ahorrar hasta 2.400 millones de dólares al año en costes de energía simplemente utilizando servidores con mayor grado de escalabilidad en potencia. Los servidores SPEC_power utilizan un 50% menos de energía de forma anual que  los servidores de 2007. Las estimaciones de IDC en 2010 decían que el número de servidores en el mundo estaría en torno a los 32 millones.
Si los servidores nuevos que se compraran en los próximos cinco años tuvieran la escalabilidad de potencia de los sistemas de 2012, se estima que el ahorro sería de 24TWh, o el equivalente a diez centrales eléctricas medianas. Dicho de otra manera, un operador de centro de datos con 1 MW de carga TI podría reducir sus facturas de energía en casi 100.000 dólares al año mediante sistemas que escalen como las versiones probadas de 2012.
Los ingenieros informáticos que producen los resultados en los bancos de pruebas para los sistemas TI de los fabricantes son como los equipos de carreras de Honda o Ford, o los equipos que producen las valoraciones de ahorro de combustible de la Agencia de Protección Ambiental de Estados Unidos (EPA). Los ingenieros de automóviles son los mejores en hacer que sus coches vayan a gran velocidad en una pista, o en conseguir la mayor cantidad de kilómetros por litros de combustible de cada vehículo de la flota, pero no se puede comprar uno de estos coches de carreras y utilizarlos como un sedán familiar. Lo más probable es que usted no conduzca como los protocolos de ahorro de combustible de la EPA exigen, por lo que la frase “Su experiencia puede ser diferente” se puede emplear para advertir de los resultados reales que cada persona experimenta.
La pregunta es: ¿Puede el personal de TI en general obtener las cifras de escalabilidad de las SPEC_power comprando servidores de los principales fabricantes? Power Assure utiliza su banco de pruebas PAR4 para medir los servidores de los clientes como parte del servicio de Power Assure para conseguir el mayor número de transacciones por vatio del equipamiento de TI. El benchmark PAR4, como el SPEC_power, puede también determinar el ratio de reposo frente al consumo de energía a carga completa. Clemens Pfeiffer, CTO de Power Assure, nos ayudó a comparar 53 muestras de PAR4 frente a 105 resultados de SPEC_power. Los benchmarks PAR4 se realizaron en 2012 con un mix de antiguos y nuevos servidores. De alguna manera, esto es representativo de la mayoría de data centers de clientes, con una mezcla de equipamiento nuevo y antiguo diverso.
Ambos benchmarks, PAR4 y SPEC_power, miden la potencia cuando los sistemas están en reposo, y ambos llevan al sistema a su utilización máxima y miden la potencia que se alcanza en esta situación. Mientras que los métodos para llevar el sistema a carga completa son diferentes, las mediciones deberían ser relativamente las mismas. La única medida que utilizamos para los dos sets de resultados de los benchmark fue el ratio de carga de energía IOF. Aunque podría haber diferencias en las cargas, en la medición de los consumos en estado de reposo activo y a plena carga y en otros factores, el ratio IOF debería ser relativamente consistente.
Ratio IOF
Los datos mostrados en un gráfico sobre estas líneas indican la diferencia en los ratios IOF para cada grupo. Los benchmarks PAR4 muestran una media IOF del 56%, donde la media de los benchmarks SPEC_power es de solo el 25%. Las estadísticas muestran que los sistemas PAR4 también indican un promedio de 46W más alto en el consumo a plena carga y de 77W más alto en el consumo en reposo activo. Parece que los beneficios de la escalabilidad todavía no han llegado a las máquinas en producción que se han distribuido.
Ahorros de energía anuales
Lo más interesante respecto a las predicciones es que no se suele volver atrás con el paso del tiempo para comprobar los resultados. ¿Será el 7 de mayo de 2013 el día en que la curva IOF llegará a su nivel más bajo? ¿Alcanzarán los equipos disponibles en el mercado los niveles de flexibilidad en la potencia mostrados y posibles? No lo sabremos seguro hasta que los usuarios finales midan su consumo de energía en relación a la carga de sus sistemas, pero las indicaciones son que actualizando a un equipamiento más moderno y haciendo uso de la escalabilidad de potencia de los sistemas los operadores de sistemas de TI pueden conseguir ahorros significativos.
 Este artículo ha sido escrito por Mark Monroe y Michael Stabinski, de DLB Associates, con la ayuda de Clemens Pfieffer, de Power Assure. Apareció por primera vez publicado en el número 13 de la revista FOCUS.

lunes, 3 de junio de 2013

#Épsilondc, Pioneros en Data Center

#Épsilondc,Portada Mundo TI

#Épsilondc,EL DATA CENTER DEL FUTURO YA ES UNA REALIDAD

Desde 2010 Adam tiene en Madrid el mejor y más innovador centro de datos de Europa. Es el primer centro de datos basado en tecnología 100% modular de contenedor marítimo: DataBOX.
Después de más de 2 años en el mercado, la entrada de Adam en Madrid ha supuesto toda una revolución en el sector de los centros de datos de la capital Española, ha aportado frescura e  innovación.