lunes, 31 de marzo de 2014

El Módulo Process Manager de Trellis, ayuda a reducir el error humano @EmersonNP_CALA

Emerson Network Power ha anunciado la disponibilidad del módulo Process Manager de Trellis, que ofrece a los gerentes de centro de datos un administrador de flujo de trabajo automatizado y fácil de usar.
Este nuevo módulo crea, rastrea y proporciona visualizaciones del flujo de trabajo del data center para permitirle a las organizaciones mejorar la ejecución y eficiencia de los procesos estándar del centro de datos.
Combinado con otros módulos de la solución completa de DCIM Trellis, permite también a los usuarios ver inmediatamente el impacto de los cambios propuestos en el centro de datos, mejorar los costos y la eficiencia al permitir un planeamiento preciso.
El Process Manager de Trellis refuerza los procesos e incluye todas las aprobaciones necesarias para realizar cambios en la infraestructura del centro de datos. Este contiene cuatro plantillas para los procesos principales del centro de datos: instalar, cambiar, desconectar y cambiarle el nombre de los dispositivos; lo cual asegura que se siguen las mejores prácticas cuando se realizan cambios en la infraestructura del centro de datos.
Las acciones parte de estos procesos no se pueden realizar sin las aprobaciones correctas: todas las tareas se asignan automáticamente y los retrasos se escalan con la persona o el departamento correcto. Después de terminar las tareas, el Process Manager de Trellis automáticamente actualiza el plan del centro de datos para asegurarse de que el plan de DCIM siempre sea preciso. Las plantillas se pueden ajustar según sea necesario para reflejar el flujo de trabajo de la organización.
Además de automatizar los procesos, Process Manager ayuda a los gerentes, planificadores y operarios a obtener evaluaciones de los costos, y evaluaciones y recomendaciones para las gerencias ejecutivas en lo relacionado con la asignación de presupuestos. La herramienta de flujos de trabajo proporciona un enfoque alternativo mucho más dinámico y preciso de las evaluaciones que el proceso manual actual. Ahora, los gerentes de centros de datos pueden aumentar la confianza en que su data center respaldará los requisitos de los negocios y de TI.
“El Process Manager de Trellis agrega el flujo de trabajo a las funciones existentes de la plataforma Trellis, y solventa la necesidad de mercado de eliminar el error humano y proporcionar una visualización de los efectos de ciertos cambios en el centro de datos”, afirmó Steve Hassell, presidente del negocio de soluciones para centros de datos de Emerson Network Power.
El módulo Process Manager de Trellis ayuda a gestionar los roles y permisos para los cambios de infraestructura de data center

jueves, 27 de marzo de 2014

UPS GREEN Y EMERSON TRABAJANDO JUNTOS PARA EL MERCADO EUROPEO!!!

Emerson Network Power está trabajando en diseños “green” para tecnologías de suministro ininterrumpido de energía (UPS) de data center como parte de un proyecto europeo que espera crear estándares de tecnologías más respetuosas con el medio ambiente.
El piloto Huella Medioambiental de Producto (PEF), impulsado por la Comisión Europea, quiere definir reglas de cálculo comunes para calcular el impacto que las tecnologías utilizadas en la operación de data centers tienen sobre las medidas de eficiencia.
Emerson Network Power está participando en el PEF  como miembro del subcomité supervisando UPS.
Proporcionará productos UPS que serán probados por el PEF usando un método que monitoriza el rendimiento de un bien o servicio en su ciclo de vida.
En su contexto más amplio, el PEF espera dar seguimiento a las operaciones de data center mirando la energía utilizada y desperdiciada en toda la organización usando una medida denominada Huella Medioambiental Organizativa (OEF).
“La OEF se calcula usando datos agregados que representan el flujo de recursos y desperdicios que cruzan los límites organizativos definidos”, señala un documento sobre esta materia.
“Una vez que se ha calculado la OEF se puede desagregar a nivel de producto utilizando las claves de asignación apropiadas.
"En teoría, la suma de los PEF de los productos realizado por una organización para un intervalo determinado debe estar cerca de su OEF para ese mismo periodo."
La Comisión adoptó el método PEF en 2013 y actualmente está llevando a cabo un ensayo de tres años en sus métodos con el objetivo de crear en el futuro un mercado único para los productos verdes.
Franco Costa, vicepresidente y gerente general de sistemas de potencia de Emerson Network Power en MEA dijo que Emerson se ha comprometido con los estándares mientras se desarrolla la próxima generación de soluciones de energía del centro de datos.
Afirmó que la compañía va a presentar productos para testeo en benchmarks de rendimiento y que trabajará con otros partners para validar los sistemas de cumplimiento y verificación.
"Emerson Network Power tiene la responsabilidad de estar a la vanguardia en la creación del camino para el futuro, ahora que la industria busca colectivamente una estandarización a nivel europeo", dijo Costa.
La compañía afirma que se comprometerá en el desarrollo de nuevos estándares como parte de un nuevo proyecto enfocado en la eficiencia energética de la operación de data centers
http://www.datacenterdynamics.es/focus/archive/2014/03/emerson-trabaja-en-ups-green-para-el-mercado-europeo

martes, 25 de marzo de 2014

¿Sabías que el Uptime de un centro de cómputo es la combinación de una sustentabilidad operacional y el Tier??

Este estándar es una herramienta para ayudar a los dueños de centros de cómputo en maximizar la inversión en la infraestructura.
Adicionalmente facilita comparación entre centros de cómputo de una perspectiva operacional. Similar a Tiers de equipo de infraestructura instalado, el rigor y sofisticación de los conceptos y metodologías de administración del sitio de Sustentabilidad Operacional son establecidos por los requerimientos del negocio.
Un requerimiento de Tier III resulta en una infraestructura más compleja que un Tier I. Del mismo modo, un centro de cómputo Tier
III requiere de comportamiento más comprensivo y rigoroso para mitigar riesgos que un Tier I.
Los tres elementos de Sustentabilidad Operacional, en orden decreciente de impacto a operaciones, son:
1. Administración & Operaciones
2. Características del Edificio
3. Ubicación del Sitio
Similar a Tiers de equipo de infraestructura instalado, el rigor y sofisticación de los conceptos y metodologías de administración del
sitio de Sustentabilidad Operacional son establecidos por los requerimientos del negocio.
Los tres elementos de Sustentabilidad Operacional impactan la potencial de desempeño de la Topología del Tier, pero Administración & Operaciones tiene el impacto más fuerte para disponibilidad por largo plazo.
Niveles de personal, acercamiento a mantenimiento, y la cantidad y detalle de procesos y procedimientos son categorías ilustrativas del elemento de Administración & Operaciones que relacionan directamente a cada nivel de Tier.

jueves, 20 de marzo de 2014

¿Sabes cuál es la Selección adecuada de sitio para la construcción de un Data Center????

El primer paso en el “diseño” de un centro de computo, es la selección de sitio adecuada tomando en consideración los siguientes puntos:
Consideraciones:
  • Riesgos Naturales y Hechos por Hombre
  • Riesgos del Sitio
  • Consideraciones del Sitio
  • Energía Eléctrica
  • Comunicaciones
Riesgos naturales y Hechos por hombre :
• Terremotos
• Huracanes y Tornados
• Inundaciones
• Volcanes
• Derrumbes
• Fuegos forestales
• Uso de suelo adyacente
• Corredores de transportación
• Rutas de aviones
Riesgos de Sitio:
• Considera calles diferentes de acceso, pero no carreteras (0.8 km), aeropuertos (1.6 km), gasolineras, fabricas, etc.
• De preferencia edificio dedicado al Data Center
• Edificios con múltiples inquilinos de uso oficina (evitar restaurantes, etc.)
• Amplia separación entre columnas
• Separación de otros edificios de 18 m. donde posible
Consideraciones del Sitio:
• Altura entre losa y vigas hasta 3.90 m.
• Acceso de equipos grandes al cuarto de computo
• Fuentes externas de EMI/RFI (3.0 Voltios/metro máx.)
• Evitar baños etc. en pisos superiores
• Alimentaciones eléctricas, telecomunicaciones, etc. enterradas
• Altura de 3050 m. máx.
Energía Eléctrica:
• Capacidad
• Confiabilidad
• Acceso
• Costo
• Consideraciones futuras
Comunicaciones:
• Capacidad/Redundancia
• Ancho de Banda
• Acceso
• Costo
• Consideraciones futuras

miércoles, 19 de marzo de 2014

¿Sabías que el Proceso de Commisioning asegura la instalación segura y saludable, en el diseño de un #DataCenter

ASHRAE Pauta 0, define el Proceso de Commissioning, como "un proceso orientado a la calidad para alcanzar, verificar y documentar que el rendimiento de las instalaciones,sistemas y conjuntos cumple con los objetivos y criterios definidos".
• El Commissioning es un proceso para toda la planificación, entrega, verificación y gestión de riesgos a las funciones críticas a cabo en, las instalaciones.Asegura la calidad de construcción con revisión por terceros y la verificación en campo.Apoya a la entrega de un proyecto que ofrece una instalación segura y saludable, optimiza el uso de energía, reduce los costos de operación, asegura suficientemente la orientación y capacitación del personal de O&M, y mejora la documentación de los sistemas instalados en el edificio.
El objeto principal es asegurar cumplimiento del diseño (design intent) y requerimientos operacionales:
  • Owner´s Project Requirements (OPR): La visión global del Cliente del facility y las expectativas sobre cómo se usa y opera
  • Basis-of-Design (BOD): Documentos que captan los aspectos físicos relevantes para lograr los requerimientos de desempeño, para soportar la visión en el Owner’s Program
  • Preparados por arquitectos, ingenieros y consultores contratados por el Cliente
  • Pueden ser modificados durante la construcción para reflejar restricciones logísticas, costo, etc.
– Commissioning Plan: Define el proceso de pruebas para asegurar que la obra entrega lo esperado e incluye:
• Capacitación
• Documentación
• Conclusión del proyecto (Project Close-out)
Para que el proceso de Commissioning logre resultados sostenibles, el equipo responsable de la operación (después de la aceptación final) debe estar adecuadamente preparado para asumir la responsabilidad de los equipos y sistemas instalados. Es una responsabilidad principal del equipo de Commissioning gestionar el proceso de capacitación para preparar con eficacia a este equipo a comprender y operar adecuadamente los sistemas de alto rendimiento que se requiere para sostener la misión del Cliente.
Éspilon, Soluciones Integrales en Data Center

martes, 18 de marzo de 2014

¿Conoces el primer paso en el Diseño de un Centro de Computo???

Al pensar en Diseñar un Centro de Computo, debemos identificar entre el significado de un Data Center y un Cuarto de Cómputo:
Un Data Center "Es un edificio o parte de un edificio cuya función primaria es albergar un Cuarto de Computo y sus áreas de soporte; usualmente contiene servidores y productos de storage para funciones misión crítica.”
Un centro de Computo es "Un espacio controlado que solamente almacena equipos y cableado directamente relacionados con los sistemas informáticos y de telecomunicaciones.”
El primer paso en el Diseño de un Centro de Computo es el siguiente:
  • Presupuesto preliminar
          • Criticidad
          • Tier de Uptime
          • Tier de TIA
          • Combinació
          • Tipo de edificio
          • Solo o compartido
         • Otros espacios
         • Lessons learned
         • UPS adentro/afuera
         • Enfriamiento

OSMO KUUSISTO
RCDD DE BICSI
ANSI/TIA-942-2005/
Épsilon, Soluciones Integrales en Data Center

viernes, 14 de marzo de 2014

¿Conoces los impactos operativos del Tier III???

Cada componente de capacidad o de distribución necesario para soportar el ambiente de procesamiento de TI puede ser mantenido de forma planeada sin impacto al ambiente de TI.
Este concepto extiende a subsistemas importantes como:
• Sistemas de control para la planta mecánica
• Sistema de arranque de planta(s) de emergencia
• Controles de EPO
• Energía eléctrica para equipos de enfriamiento, bombas, válvulas y otros
a) El sitio es susceptible a la interrupción de actividades no planificadas. Errores de operación de componentes de la infraestructura del sitio pueden causar una interrupción de equipo de computación.
b) Una interrupción imprevista o falla de cualquier sistema de capacidad tendrá un impacto al equipo informático.
c) Una interrupción imprevista o falla de un componente o elemento de la distribución de capacidad podría influir el equipo de computación.
d) Mantenimiento planeado de la infraestructura del sitio se puede realizar mediante el uso de los componentes de capacidad y rutas de distribución redundantes para trabajar con seguridad en el resto del equipo.
e) Durante las actividades de mantenimiento, el riesgo de interrupción puede ser elevado. (Esta condición de mantenimiento no derrota a la calificación de Tier alcanzado en las operaciones normales).

jueves, 13 de marzo de 2014

CARACTERÍSTICAS CLAVES QUE DEBEN CONTENER LOS UPS

Se deben considerar tres características claves en un UPS:
La Modularidad, La Redundancia inherente y de ultra eficiencia caracterizan a los mejores sistemas de UPS en la industria; se han creado plataformas de protección de energía con mayores espacios en blanco o superficie para maniobrar en los Data Centers,que benefician a grandes y medianas empresas.
Cuentan con servicios de internet en la Nube o Cloud Computing, maximizan la escalabilidad, eficiencia y agilidad de las instalaciones; considerando la sustitución de soluciones y la demanda de UPS centralizados con transformadores de mayores capacidades distribuidas con sistemas de energía ininterrumpida.
Las empresas están aprovechando los beneficios en sus infraestructuras de TI debido a que el hardware de los UPS se ha convertido en un conjunto de capacidades de tres categorías: bajo costo total, alta flexibilidad de despliegue y maniobralidad superior en la administración
El objetivo de los proveedores de Servicios Cloud es enfocarse en las normas de funcionamiento eficientes para asegurar que cualquier UPS ofrezca arquitectura modular con múltiples unidades de potencia que compartan los respaldos comunes electricos, fuentes de alimentación y cableado. Aunque representa un gasto operativo importante para las empresas, estas ponen una alta atención a la eficiencia energética cuando seleccionan un UPS.
Al elegir un espacio blanco de UPS, buscan productos que admiten varias configuraciones tales como múltiples opciones de gestión térmica, combinar accesorios en línea, así como poder desmontar bypass de mantenimiento o poder contar con entradas superiores e inferiores de cables.
Maniobrabilidad Superior:
 Para darle una mayor facilidad a las reparaciones o mantenimiento, así como a la incorporación de nuevas tecnologías para los ingenieros, es importante contar con arquitecturas de distribución innovadoras que faciliten la maniobrabilidad, eso significa que son clave la selección de los UPS con capacidad de servicio delantero, la perfecta integración con el software de administración de energía y la monitorización remota 24×7, así como las capacidades de notificación en línea.
Las arquitecturas distribuidas de energía que ponen a los UPS en el espacio en blanco aumentan las capacidades de los Centros de Datos de alta escalabilidad, la disponibilidad y flexibilidad de la Computación en Nube y facilita la colocación o integración, al tiempo que reduce los gastos de capital. Para obtener estos beneficios, sin embargo, las empresas deben elegir UPS adecuados que reducen el TCO, aumentan la flexibilidad de implementación y permiten la gestión de energías centralizadas o distribuidas más eficientes del orbe.

miércoles, 12 de marzo de 2014

SEGURIDAD Y FACTOR HUMANO TEMAS CLAVES PARA #DATACENTERS Y SERVICIOS DE TI

El desafío actual de las empresas a la hora de elegir un proveedor para servicios de DataCenter es considerar la infraestructura, las certificaciones y la madurez de los procesos que están detrás de estos servicios.
Se debe tomar en cuenta el uso de mejores practicas que permitan reducir costos, el mejoramiento de la calidad y el incremento de la satisfacción por parte de los clientes. Sin embargo, en el tema de la seguridad,  el 80% de las fallas en el servicio o la pérdida de datos, ocurren por fallas humanas y no técnicas. De hecho es la principal amenaza del servicio y por ello es necesario establecer procesos formales, es decir , las empresas deben poner atención tanto en la infraestructura, las certificaciones, como en la madurez de los procesos.
La directora de desarrollo mercado hispanoamericano de Uptime Institute, único organismo certificador Tier3 para diseño y construcción de Datacenters, Dana Smith, explicó en su charla las principales exigencias en infraestructura que aseguran hoy un óptimo funcionamiento y la continuidad de los servicios de TI. “Las certificaciones Tier3 ayudan a mitigar los riesgos, por ejemplo, de desastres naturales, porque obligan a diseñar y construir el centro pensando que estos desastres pueden ocurrir.

martes, 11 de marzo de 2014

¿Cómo prevenir desastres en un Centro de Datos???

Las empresas son afectadas directamente por los desastres en los centros de datos, por lo que se debe tomar en cuenta los siguientes puntos para combatirlos:
1. Recuperación de desastres
Cuando un centro de datos enfrenta un desastre es debido a la falta de evaluaciones y pruebas que deben realizarse continuamente, es decir estos sistemas deben estar en continua revisión para coincidir con las necesidades del negocio actual.
2. Generadores de respaldo
En la mayoría de los centros de datos se crea la necesidad de evaluar periódicamente los generadores de respaldo, pero se pasa por alto la existencia suficiente de combustibles para el período en que se espera el corte de energía.
3. Localización del servidor 
Una de las ventajas de la virtualización  es que las cargas de trabajo se intercambian dinámicamente entre los servidores, especialmente en el caso de un fallo. Sin un sistema de seguimiento de activos, a menudo es difícil encontrar el servidor físico a intercambiar.
4. Del diseño físico al lógico
Cuando se construye un centro de datos,se debe tener en cuenta la mejor manera de implementar la infraestructura física, el cableado, energía, racks, etc.El correcto diseño permitirá la operación y el crecimiento del centro de datos sin necesidad de requerir costosas adecuaciones.
5. Enfriamiento
Al construir un centro de datos es posible reducir la temperatura un par de grados al tomar en cuenta un buen diseño de flujo de aire dirigido.Para garantizar que el flujo de aire caliente se envíe lejos de las entradas y que el aire frío pueda circular por los equipos activos.
6. Administración del cableado
Al no respetarse los estándares  dentro de los gabinetes como el enrutamiento del cableado dentro del centro de datos cumpliendo con los radios de curvatura, identificación y accesibilidad para mantenimiento y reconfiguración. Se provocan  retrasos costosos en la reconfiguración de la conectividad, complicando así la satisfacción de nuevas necesidades del negocio.
Además, dentro del rack, la falta de administración aumenta el riesgo de aplicación incorrecta de cordones de parcheo, restringiendo el flujo de aire, provocando mayor calentamiento de los equipos activos y bloqueando el acceso a las piezas que requieren mantenimiento (ventiladores, PSU, etc).
7. Uniones y tierras
Para que un centro de datos este plenamente protegido, es importante que todo equipo cuente con tierra física en lugares donde las descargas eléctricas son comunes
8. Estándares
En el diseño de centros de datos existen normas para llevar a cabo mejores prácticas. La norma clave es la TIA-942
9. Seguridad
El centro de datos es el núcleo de los negocios de una empresa al contener todos los datos empresariales.Por lo que el  revisar las fallas, aplicar los correctivos y revisar periódicamente las políticas de seguridad pueden evitar que las amenazas cumplan su objetivo.
Una política de seguridad adecuada no solo consiste en evitar violaciones de la seguridad, tanto intencionales como accidentales, sino que debe tener en cuenta aspectos tecnológicos y humanos. Una vez que la seguridad es violada, el mayor costo es la pérdida de reputación de la empresa, por encima de las pérdidas financieras y los costos de rectificar el fallo.
10. Mantenimiento de los registros
Los centros de datos son un entorno dinámico y si no se tiene un adecuado control de la información y una apropiada administración de la infraestructura, se convierten en una gran carga y en un alto costo oculto.Al implementar los procedimientos adecuados  la posibilidad de cambios incorrectos o sin registro será menor y se garantizará que los mantenimientos de rutina y la detección de fallas no se vean afectados.

lunes, 10 de marzo de 2014

¿Lograr un retorno de inversión del 100% en tan solo 13 meses?? DCIM de @EmersonNP_CALA

Emerson Network Power, encontró que la plataforma de administración de la infraestructura del centro de datos DCIM, puede lograr un retorno de inversión del cien por ciento en tan solo 13 meses.Los clientes alcanzan un 100% de ROI pasado el primer año, acumulando USD 1.6 millones de beneficios totales.  
El estudio realizado por FORRESTER COINSULTING examinó el impacto económico total y el retorno de inversión potencial para implementar una solución DCIM al utilizar la herramienta de análisis del ROI; se entrevistaron a doce clientes de Emerson y de entre ellos un cliente bancario mundial con oficinas en Medio Oriente, Europa, Asia, Australia y EE. UU., fué seleccionado en el análisis del rendimiento de la inversión, el cliente tenía tres centros de datos, uno de ellos para recuperación después de  desastres, con un total de 570 metros cuadrados, su análisis de retorno de inversión arrojo que en total el cliente lograba USD 1.6 millones en beneficios totales en tres años. 
El aumentar la disponibilidad de los sistemas críticos constituía un objetivo principal para este cliente y el DCIM le permitío aumentar 20 horas por año, con lo cual economizó USD 1.2 millones de costos relacionados con las caídas de los centros de datos en un período de tres años. Así como también el cliente ahorro más de cinco horas al día debido a la administración centralizada de sus tres centros de datos. La administración remota reunió casi USD 39,000 al año y esto le permitió al cliente construir un nuevo centro de datos al mismo tiempo que ahorro tiempo así como gastos de USD 95,000; el cliente economizó unos 45 minutos adicionales por día al administrar el planeamiento y colocación del centro de datos de varias solicitudes que ocurren cada día, ahorrándole a la compañía cerca de USD 11,000 por año en productividad. Otro de los principales beneficios es que el DCIM redujó el consumo energético y los costos asociados en USD 10,600 por año.

Ante esto Steve Hassell presidente del negocio de Soluciones para Centros de Datos de Emerson Network Power expresó "Siempre hemos sabido que nuestras soluciones de DCIM logran un ahorro significativo y le agregan valor a nuestros clientes y ahora tenemos un estudio que valida estos beneficios con uno de nuestros principales clientes mundiales"

viernes, 7 de marzo de 2014

¿Conoces el Chiller Liebert HPC-S para #DataCenter???? @EmersonNP_CALA

Emerson Network Power, anunció la disponibilidad del chiller Liebert HPC-S en todo el mundo para maximizar la disponibilidad, capacidad y eficiencia de la infraestructura crítica.

Este chiller incluye el enfriamiento previo del agua con un economizador para permitir que los centros de datos pequeños y medianos logren una mayor eficiencia al reducir la operación del compresor cada vez que la temperatura externa lo permita. La operación del economizador  y el compresor se controla automáticamente con controles integrados en el chiller para ayudar a reducir dramáticamente el índice de efectividad del uso de la energía (PUE) de las instalaciones.

Optimizado para suministrar agua helada a las unidades CRAH, el chiller Liebert HPC-S tiene integrada la tecnología de enfriamiento con economizador indirecto, que es más eficiente que los economizadores directos de aire y mitiga las limitaciones operativas y las preocupaciones comúnmente asociadas con esta tecnología. El modo de enfriamiento con economizador permite al chiller operar en freecooling parcial o total cuando la temperatura externa sea inferior a la de retorno del agua al chiller.
Este chiller de pre-enfriamiento con economizador cuenta con un diseño optimizado con componentes sobredimensionados, los cuales le permiten funcionar con temperaturas de inyección de hasta 20 grados Celsius y retornos de hasta  26 grados Celsius, y, que como resultado, maximizan los periodos de operación del economizador.
“En un momento en el cual los centros de datos se vuelven más complejos, las compañías buscan controles del entorno en tiempo real más eficientes, que ayuden a mejorar la eficiencia operativa y reduzcan los gastos operativos”, afirmó John Schneider, vicepresidente y gerente general de Gerenciamiento Térmico de Emerson Network Power. “Equipado con tecnología líder, como el sistema de control Liebert iCOM, ventiladores EC y compresores Copeland Scroll, el chiller Liebert HPC-S permite ahorrar un 40 por ciento anual de energía en centros de datos en comparación con los productos tradicionales”.
El control Liebert iCOM integrado en el chiller permite controlar de manera inteligente y eficiente la generación de agua helada, para adaptar rápidamente todo el sistema a las cambiantes condiciones del entorno y activar la operación del economizador cuando sea apropiado. El sistema se puede conectar con facilidad en red para lograr un control eficiente de un grupo de chillers o de cada unidad sin la necesidad de tener un sistema BMS de automatización del edificio por separado.
Además, el Liebert HPC-S es compatible con las unidades de aire acondicionado de precisión de agua helada Liebert CRV para el enfriamiento de racks en fila. Al acoplar el control Liebert iCOM, elLiebert CRV y el chiller HPC-S en pasillos confinados es posible maximizar la eficiencia y control de la solución de agua helada de extremo a extremo. Este tipo de configuración es capaz de lograr una efectividad del uso de la energía mecánica (PUE) por debajo de 1,20 y así asegurar que se usa cada watt de potencia para enfriar los servidores.
Business Partner Tier 1 de Emerson Network Power

martes, 4 de marzo de 2014

¿Digitalizar la Iluminación en los #DataCenters es la opción?????

En el Diseño de las ingenierías se debe realizar un análisis de inversión para la iluminación de un Centro de Datos. Sin lugar a dudas el tema de la iluminación está cambiando por la incursión de la tecnología led y es un hecho que en el futuro  las luminarias fluorescentes y los sistemas de iluminación basados en descarga o incandescencia serán remplazados por esta tecnología, aunque hay muchos que todavía no lo creen.
El cambio a esta tendencia es la única opción para obtener ahorro energético, tomando en cuenta la cantidad de Data Centers que operan actualmente.En los últimos años varias compañías han diseñado lámparas fluorescentes y balastros electrónicos con mayor duración y economía, lo que ha resultado una buena solución para la actualización de sistemas de iluminación tradicionales no solo en Data Centers, sino en centros comerciales y casas habitación.
En un Data Center se acostumbra a usar la iluminación encendida al 100%, por atender los sistemas de seguridad, cámaras de circuito cerrado, o algún trabajo de mantenimiento operativo que se este realizando en el perímetro del Centro de Datos.Los sistemas digitales de información nos permiten mantener la iluminación en segmentos críticos de manera eficiente, utilizando tecnologías de atenuación y sensores de presencia para trabajar a un porcentaje de iluminación que permita ahorros energéticos.
 Los sistemas digitales de iluminación  permiten utilizar la iluminación existente. Cambiando los balastros por sistemas atenuantes digitales direccionales, las luminarias instaladas pueden ser reutilizadas en su totalidad, pero garantizando un ahorro en el consumo de energía, además de aumentar la vida útil de las lámparas fluorescentes “entre tres y cuatro veces más.”
Es decir si en el Data Center no hay personas pero se tiene que mantener iluminado, esta iluminación se debe atenuar con un sistema que trabaje con sensores de presencia para obtener un ahorro significativo de energía.
Este tipo de sistemas ha cobrado gran notoriedad recientemente, ya que permiten disminuir las facturas generadas por el consumo de energía, y operar con simplicidad. Los sensores de presencia son inalámbricos, por lo que no hay necesidad de cableados y el sistema funciona por igual en luminarias tradicionales como en Leds.
Desde hace tiempo, las normativas internacionales han girado dramáticamente hacia las tendencias sustentables, por lo que no es correcto considerar el Led como una moda pasajera. Los especialistas consideran este auge como una tendencia real que repercute en mejores prácticas y estándares de ahorro internacional. Lo cierto es que reducir el consumo de iluminación, por medio de Leds o a través de atenuación de fluorescencias,  repercute favorablemente en otros segmentos, específicamente en la factura del aire acondicionado.
Entonces ¿Remplazar las luminarias de un Data Center existente por iluminación Led? lo recomendable es digitalizar la iluminación. Si se trata de quitar el tubo fluorescente para remplazarlo, probablemente la mejor opción sea no quitarlo e implementar un sistema de control y atenuación digital. Si es un diseño nuevo, un Data Center que va a nacer, y desde el diseño de las ingenierías se conceptualiza con la iluminación correcta, con los Leds adecuados, entonces todos los elementos estarán dados para un rendimiento eficiente.

lunes, 3 de marzo de 2014

¿UNA RED DE FIBRA ÓPTICA QUE UNE CENTROAMÉRICA? TELEFÓNICA LA LANZA!!!!

Telefónica ha anunciado el lanzamiento de una red de fibra óptica de última generación en América Central, con una inversión estimada entre 14 y 15 millones de dólares, tal como recogen diversos medios de la región.
Bautizada como Red Centroamericana, esta iniciativa tiene una extensión de 3.158 kilómetros, comienza en Panamá y llega a México, conectando las capitales de Costa Rica, Nicaragua, El Salvador y Guatemala vía terrestre. De este modo, la distancia de recorrido es mucho menor que si se tratase de una red marítima. Previsiblemente, las compañías podrán monitorear su actividad desde un centro de datos de Brasil.
La capacidad inicial de la red es de 10 Gbps para la transmisión de datos. El proceso ofrecerá también una red On-net para asegurar la homogeneidad en el servicio.
Al interconectar las distintas capitales, se crea también una interconexión automática con las redes de datos locales. Asimismo, esta red tiene capacidad de crecimiento, lo que puede significar nuevas inversiones en el futuro.
Con esta red, Telefónica ha desarrollado nuevas soluciones como contingencia para data center.
La Red Centroamericana, en la que la compañía ha invertido 15 millones de dólares, interconecta seis países a lo largo de 3.158 kilómetros.