martes, 12 de agosto de 2014

Una de las formas de disminuir el gasto de energía es aumentando la eficiencia de la infraestructura del aire acondicionado de su Data Center!!!!

El sistema Liebert DSE de Emerson Network Power combina un funcionamiento con la eficiencia
más alta de la industria, hasta un 70% más eficiente que las tecnologías alternativas, con la confiabilidad y la experiencia local asociada con los productos Liebert.
Este aire acondicionado de precisión muy eficiente se diseñó para solucionar los problemas que enfrentan los departamentos de TI hoy. Ofrecido con modelos condensados con aire, el Liebert DSE asegura la disponibilidad y capacidad que demanda el entorno de TI hoy, al mismo tiempo que reduce los costos energéticos y mejora la efectividad del uso de la energía.
Esta solución de aire acondicionado es escalable, lo cual asegura que el centro de datos recibe la cantidad adecuada de enfriamiento todo el año y permite el crecimiento futuro y cambiar las cargas del centro de datos.
Usos 
El sistema de aire acondicionado de precisión Liebert DSE alcanza la eficiencia más alta de la industria en los siguientes usos:
Centros de datos que sufren de un aumento en la densidad de calor y un alto consumo de potencia para enfriamiento.
Gerentes de TI quienes quieren reducir los costos del enfriamiento y del uso de la energía.
Organizaciones interesadas en instalar menos sistemas de aire acondicionado de precisión de gran capacidad en vez de sistemas de menos capacidad.
Aumentar la eficiencia de la infraestructura del aire acondicionado de su centro de datos es una de las formas más efectivas para disminuir el gasto de energía

martes, 29 de julio de 2014

MÁS ALTOS Y MÁS BARATOS: ¿ES ÉSE EL FUTURO DE LOS DATA CENTERS?

Los centros de datos podrían convertirse pronto en almacenes con grandes racks que ascienden hasta techos cada vez más altos, según las tendencias identificadas por el analista de mercado TechNavio.
El informe Global Data Center Rack Market 2014 ha determinado que, en los últimos diez años, las unidades de rack prácticamente se han doblado en tamaño, debido a la presión de los operadores de data center por consolidar las instalaciones en espacios menores, principalmente por el incremento de los precios de propiedad.
Hace una década, el tamaño estándar de los racks de data center solía ser de 36U, pero ahora los racks de 42U suponen más del 60% del mercado, e incluso se están poniendo de moda racks aún más grandes, indica Faisal Ghaus, vicepresidente de TechNavio.
Como afirma el directivo, los trabajadores del data center podrían necesitar en breve escaleras para alcanzar la parte superior de los armarios, en instalaciones similares a almacenes.
“La demanda de racks más altos está creciendo en todo el mundo y el mercado está cambiando a modelos de 48U y 51U”, explica Ghaus. “Actualmente, la combinación de 48U y 51U supone el 10% del mercado, pero se espera que apunte pronto al 20%”, añade.
Los nuevos centros de datos están cambiando a medida que los diseños de construcción se centran cada vez más en la ergonomía para reducir el consumo energético.
El informe también encontró que los operadores de data center están buscando techos más altos para acomodar racks más altos y utilizar el espacio al máximo.
“En todo el mundo, muchos centros de datos están alcanzando el límite de su vida. Hay una necesidad de reestructurar y rediseñar los data centers para facilitar una computación más eficiente. Las restricciones regulatorias significan que hay una necesidad de soluciones eficientes energéticamente que formen parte de los centros de datos”, concluye el informe.

lunes, 28 de julio de 2014

¿Será posible que en el año 2025 el 60% de la informática este en la nube????

Los participantes expertos del
Centro de Datos de 2025 mencionaron frecuentemente la necesidad de flexibilidad y la
computación en nube proporciona el potencial para una administración más flexible de la
capacidad. Según Peter Gross de Bloom Energy, el crecimiento de la nube y lo que él llama
“todo como un servicio” creará cambios fundamentales en la industria de TI y podría a la
larga resultar la disminución de centros de datos corporativos de 1 MW−2 MW.
“Los negocios simplemente no podrán justificar la inversión que requiere un centro de datos si hay otras alternativas disponibles”.
Esto no necesariamente significa que el centro de datos corporativo desaparecerá. Un
participante afirmó lo siguiente: “Habrá un significativo aumento en la computación en nube y el almacenamiento en la nube, pues la mayoría de las interfaces de usuario estarán distribuidas en dispositivos móviles o portátiles. Por otro lado, parte de la informática corporativa siempre será necesaria y en realidad podría incrementarse conforme más funciones de inteligencia artificial se convierten en funciones internas para tomar decisiones y mejorar la productividad”.
“Habrá un significativo aumento en la computación en nube y el almacenamiento en la
nube, pues la mayoría de las interfaces de usuario estarán distribuidas en dispositivos
móviles o portátiles. Por otro lado, parte de la informática corporativa siempre será
necesaria y en realidad podría incrementarse conforme más funciones de inteligencia artificial se convierten en funciones internas para tomar decisiones y mejorar la
productividad”.

jueves, 24 de julio de 2014

Aumenta la demanda en el mercado de los Data Centers, “DATACENTERDYNAMICS CONVERGED MÉXICO 2014″

Los Data Centers se han convertido en la base de un nuevo modelo de negocio en sectores con gran proyección en México como la automoción, la banca o las administraciones. Estamos ante el segundo mercado más grande de América Latina en cuanto a superficie de área técnica de Data Center (un 25% del total).
El país lidera el ranking latinoamericano de inversión en nuevas construcciones y está experimentando un fuerte crecimiento en la demanda de servicios de colocation.
México cuenta con el mayor porcentaje de superficie externalizada de Data Center (un 29% en total), según fuentes del informe de DCD Intelligence. Al disponer de una mayor cantidad de Data Centers ya establecidos, México ha aumentado rápidamente el porcentaje de readaptaciones, actualizaciones y consolidación. Se estima que México cuenta con unos 425.000 metros cuadrados de espacio en Data Centers (12% de aumento desde el año 2012).
En este contexto se presenta DatacenterDynamics Converged 2014, la 6º edición del congreso en México, totalmente renovado con nuevos formatos y contenidos. Entre otras novedades, cabe destacar la organización de las ponencias por salas temáticas. También se ampliará la oferta de talleres especializados, que dispondrán de una sala propia el primer día del evento.
Conferencias destacadas
El evento contará con la participación de ponentes internacionales y nacionales de primer nivel que se darán cita junto a los casos prácticos más relevantes. Así, el primer día del evento, contaremos con la participación de David Gallaher, IT Manager de National Snow and Ice Data Center (NSIDC), que hablará del proyecto de modernización de su Centro de Datos: La revolucionaria retroalimentación del Data Center. El Centro de Datos de National Snow and Ice Data Center (NSIDC). Para este Centro de Datos el NSIDC desarrolló un proyecto de modernización que incluye la virtualización de equipos de TI, un diseño único nuevo HVAC y un UPS fotovoltaicos de energía solar. Además, otros destacados ponentes expondrán su proyectos en el contexto de Data Center durante la segunda jornada como Flor Argumedo, la reconocida CEO de Comercial Mexicana, quien nos contará cómo ha sido el proceso de implementación de Big Data en su empresa, y Fernando Thompson de la Rosa, que hablará sobre Cloud híbrida, un modelo evolucionado de la nube desde su experiencia en la Universidad de las Américas Puebla.

miércoles, 23 de julio de 2014

Tres Estrategias Clave para una infraestructura más escalable

Hay tres estrategias clave para crear una infraestructura más escalable:
USAR TECNOLOGÍAS AVANZADAS O SOFTWARE PARA LIBERAR LA CAPACIDAD EXISTENTE Y AMPLIARLA O DISMINUIRLA :
La tecnología ahora permite la escalabilidad de la
infraestructura de hora en hora. Las aplicaciones que
experimentan un uso pico durante las horas laborales pero casi se apagan totalmente durante la noche no requieren el mismo nivel de respaldo de la potencia y del aire acondicionado las 24 horas. Las infraestructuras inteligentes se pueden ampliar o reducir según es necesario: inactivar el UPS, por ejemplo, cuando no se necesita y reactivarlo durante las horas pico. Las soluciones de aire acondicionado avanzadas reaccionan en tiempo real a los cambios de la temperatura, lo cual también permite ampliar o reducir la actividad según sea necesario.
Llevar ese control al siguiente nivel significa que aquellos
sistemas de las infraestructuras fuera de ciclo se pueden usar para respaldar otras aplicaciones que podrían estar alcanzando un pico al mismo tiempo. Entender estos patrones y optimizar los índices de utilización mejora dramáticamente la eficiencia energética en todas las instalaciones y ayuda a evitar tener centros de datos sobredimensionados. Las instalaciones que experimentan fluctuaciones regulares de carga pero con un crecimiento modesto podrían construir una infraestructura eléctrica y de enfriamiento con estos controles avanzados.
ESCALAR CON BLOQUES DE CONSTRUCCIÓN:
La introducción de los sistemas de potencia y de aires acondicionados modulares, integrados y autocontenidos ha tenido un impacto significativo en el centro de datos en los últimos 10 años, tanto como cualquier avance en los servidores. Estas tecnologías más pequeñas y ágiles (incluyen todo desde los UPS y aires acondicionados con base en filas hasta grandes contenedores con infraestructuras completas) facilitan la inversión gradual en la capacidad de la infraestructura. Las organizaciones en crecimiento pueden agregar una fila de racks junto con la potencia y aire acondicionado para respaldarlas con poca o ninguna interrupción de la infraestructura existente o agregar el equivalente de un centro de datos pequeño e individual con una solución en contenedores. Las únicas restricciones son espacio y presupuesto.Por supuesto que esas restricciones son reales. A largo plazo, el gasto de capital relacionado con estas compras; el sacrificio en términos de los gastos operativos (varios sistemas no son tan eficientes como un solo sistema grande y requieren más servicios); y el espacio que ocupan con el tiempo proporcionan verdaderos beneficios en ganancias graduales.
¡HACERLO! :
Algunas veces todos los arreglos a corto y mediano plazo retrasan lo inevitable. Si un centro de datos: a) alcanzó los límites de su capacidad existente; b) agotó sus opciones para liberar capacidad; c) se quedó sin espacio físico para crecer, y d) descartó la subcontratación como una opción, entonces llegó el momento para construir nuevas instalaciones ¿Y las buenas noticas? El centro de datos se puede construir con la escalabilidad en mente y con acceso a las tecnologías para la infraestructura que permiten un eficiente e inteligente crecimiento de TI que cumple las necesidades actuales y futuras del negocio.

lunes, 21 de julio de 2014

Destinados a Proteger Centros de Datos Pequeños @EmersonNP_CALA LLeva a LATAM los UPS LIEBERT GXT MT

Emerson Network Power, anunció la disponibilidad en Latinoamérica, India y Asia de las unidades de suministro ininterrumpido de energía, UPS, de conversión en línea Liebert GXT MT.
El Liebert GXT MT es un UPS con conversión en línea gracias a un bypass estático, el cual permite una retransferencia oportuna.
Este sistema de UPS puede funcionar con una frecuencia de 50Hz ó 60HZ, según la necesidad del equipo electrónico conectado.
Además, alcanza un factor de potencia de salida de 0,8, más alto que la mayoría de UPS en línea en el mercado para aplicaciones críticas.
También proporciona un amplio rango de voltaje de entrada: entre 110V y 300V.
El Liebert GXT MT permite ahorrar energía gracias al Eco-Mode, el cual permite una eficiencia de hasta un 97 por ciento.
“Esta nueva familia de producto nos permite complementar nuestra línea premium Liebert GXT3. El UPS Liebert GXT MT de 1 a 3 kVA está orientado a un mercado en el cual no es necesario colocar el UPS en un rack”, expresó Juan Carlos Ramírez, gerente regional de canales de Emerson Network Power en Latinoamérica.
El UPS Liebert GXT MT mejora la administración de la potencia gracias a sus enchufes programables, los cuales permiten controlar de manera independiente los segmentos de la carga.
También cabe destacar que este UPS se puede comunicar por SNMP, USB y RS-232.

jueves, 17 de julio de 2014

¿Conoces los problemas críticos que enfrentan los sistemas de potencia hoy en día?

Las Principales Preocupaciones de los encargados de centros de datos principalmente en los sistemas de potencia son:
Disponibilidad del Sistema
Confianza en las baterías justo en el momento en que se necesitan
Conocimiento en el costo de mantenimiento en las baterías dañadas
Optimización en la vida de las baterías
Conocimiento de los riesgos que corren los técnicos mientras trabajan con los bancos de baterías.
Esta preocupación radica primordialmente en realizarse la pregunta ¿que tan importante es monitorear nuestras baterías?
El Monitoreo permite detectar a tiempo las celdas débiles y poder re-emplazarlas antes de correr el riesgo de perder la integridad del banco de baterías. Al no realizar a cabo este monitoreo las perdidas podrían ser las siguientes
Industria Cost Promedio Por Hora (2008)*
Operación del Mercado de Valores $7,840,000
Operaciones de Tarjetas de Crédito $3,160,000
Pago por Evento $183,000
Ventas de Catálogos $109,000
Reservación de Aereolíneas $108,000
Ventas de Tickets via Teléfono $83,000
Esto no incluye pérdidas intangibles tal como daños a la reputación y pérdida de clientes.
El Departamento de Energía de los Estados Unidos estima que el total de las pérdidas anuales de electricidad que sufren las industrias mayores pudieran ser tan altas como $150 billiones.
Monitoreando Parámetros Críticos y Tomando Acciones Apropriadas
– Resistencia interna
– Temperatura
– Voltaje
– Voltaje de flotación
No es necesario esperar por inspecciones tri-mestrales para identificar problemas
– Elimínelos en el instante en que ocurren
El Monitoreo hará más fácil mantener sus baterías, que a largo plazo le proporcionará un sistema de baterías más confiable y una optima vida a sus baterías.
Beneficios de Seguridad con Monitoreo
Monitoreando Inter-Tiers y Inter-Cells
• Identifique conexiones débiles
• Prevención de una posible herida al personal
• Prevención de un posible fuego / falla en sus baterías

lunes, 14 de julio de 2014

¿Conoces las principales perturbaciones eléctricas??? La clave es asegurar la Continuidad Operativa!!!

El rango completo de los problemas de energía son:
Caída de Tensión
Ocurre en un 65% de los eventos.
Es la Reducción de tensión a la frecuencia nominal, durante un tiempo desde medio ciclo hasta algunos segundos. Su causa es el Arranque de motores, aumento repentino de la carga, cargas que requieren mucha energía como fotocopiadoras o impresoras laser, fallas en la alimentación del sistema externas al edificio, cables flojos. Y sus principales efectos son el paro de equipos con pérdida de información y daños físicos.
Sobre tensión:
Ocurre en un 15% de los eventos.
Y se define como el aumento de tensión a la frecuencia nominal, durante un tiempo desde medio ciclo hasta algunos segundos.
Su causa es por la disminución repentina de la carga, pérdida de neutro, fallas en la alimentación del sistema externas al edificio, cables flojos, reenergización luego de un corte.
- Efectos:Daño a equipos con pérdida de información y daños físicos.
Cortes:
Ocurre en un 6% de los eventos.Se define como la Interrupción de la energía mayores a medio ciclo.Estos son causados por la Falla de la alimentación principal fuera del edificio, cortocircuitos o sobre corrientes que provoquen la acción de interruptores o fusibles. Y sus principales efectos son el daño a equipos con pérdida de información y daños físicos, parada de equipos.
Ruido:
Ocurre en un 6% de los eventos.
- Definición: Pequeñas variaciones en toda la onda.
- Causa: Operación de equipos electrónicos.
- Efectos: Pérdida o corrupción de la información, parada de equipos

lunes, 7 de julio de 2014

¿Sabias que el costo total de los apagones se relaciona con el tamaño del centro de datos??

El costo de los periodos de inactividad más recientes de los 41 centros de datos participantes en un estudio que realizó Emerson Network Power en conjunto con el Ponemon Institute arrojo un total de USD 20,735.602.
Entre otras conclusiones a las que llegaron están las siguientes:
• El costo total tanto de los apagones no planeados parciales como totales pueden
representar un gasto significativo para las organizaciones (aproximadamente
$258.000 y $680.000 por periodo en promedio, respectivamente).
• El periodo promedio de recuperación de un apagón total fue más del doble que el
de un apagón parcial (134 y 59 minutos respectivamente)
El costo total de los apagones se relaciona sistemáticamente con la duración del
apagón y el tamaño del centro de datos.
• Las causas primordiales de la inactividad reportadas por los participantes se
relacionaron directamente con las vulnerabilidades de la infraestructura de electricidad y enfriamiento de los centros de datos.
De acuerdo con los participantes de la encuesta, más del 39% de los apagones reportados del centro de datos se atribuyó directamente a vulnerabilidades en la electricidad del centro de datos. Entre las principales causas generales de la inactividad relacionadas con la electricidad, los fallos asociados al UPS (se incluye las baterías) demostraron ser los más costosos ($687.700) seguidos por los fallos de los generadores ($46.890).
Una de las razones principales por la cual las vulnerabilidades de la electricidad son tan costosas para los centros de datos consiste en que un fallo en la infraestructura eléctrica probablemente se convertirá en una catástrofe,un apagón total no planeado. Esto significa que además de cualquier costo directo incurrido para resolver la causa del apagón, los costos indirectos y de oportunidad también serán significativos pues los accionistas se verán afectados por el apagón.

viernes, 4 de julio de 2014

Alcanza un nuevo nivel de colaboración y confianza, Plataforma Trellis !!!!

La Plataforma Trellis proporcionará un sistema de control y medición para centros de datos, con todo el hardware y el software necesarios para eliminar los compartimentos entre la TI y las instalaciones.
Elimina la toma de decisiones por compartimentos y permite así optimizar cualquier aspecto de sus operaciones de infraestructuras, y hacer funcionar el centro de datos verdaderamente como un equipo.
La experiencia de Emerson Network Power en lo referente a tecnologías de firmware integrado y gestión de infraestructuras, activos, alimentación y refrigeración, proporciona a la plataforma Trellis la información que necesita para gestionar con eficiencia y efectividad incluso a los centros de datos más complejos.
Como resultado, se alcanza un nuevo nivel en cuanto a rendimiento y precisión en la
toma de decisiones, que hará posible conseguir la elevada disponibilidad, eficiencia
operativa y gestión de capacidad efectiva que su empresa exige.
La plataforma Trellis proporcionará una perspectiva completa en tiempo real de su centro de datos y de la interrelación entre los componentes de las instalaciones y de TI.
Aplica un esquema al centro de datos de modo que es posible predecir los efectos de todos los cambios, desde el traslado de máquinas virtuales entre los servidores hasta la adición de bastidores cargados en una esquina de la sala;de este modo se evitan los problemas y los tiempos de inactividad innecesarios.
La Plataforma Trellis como solución modular se ajusta a empresas de cualquier tamaño
y con el dispositivo multifuncional Universal Management Gateway de Avocent agrega KVM, funcionalidad de procesadores de servicios y de serie con capacidades de monitorización física y de entorno, obtiene acceso y control sobre todos los dispositivos del centro de datos.
www.epsiloningenieria.com.mx

jueves, 3 de julio de 2014

¿Sabías que la solución DCIM de Emerson aumenta la productividad del personal de los Centros de Datos????

Uno de los principales objetivos de la implementación de DCIM en la entidad bancaria consistía en aumentar la disponibilidad de los sistemas más importantes. La entidad estima que, gracias a la solución de DCIM de Emerson, se ha aumentado la disponibilidad de los sistemas en hasta 20 horas al año y se han obtenido más de 1,2 millones de dólares de beneficios en tres años.
Ademas ofrece una mejora de productividad gracias a la gestión remota. Al utilizar la solución de DCIM de Emerson, la entidad bancaria puede ahorrar más de 5 horas al día accediendo de forma remota a sus tres centros de datos. Esto se traduce en la obtención de un ahorro de aproximadamente 39 000 dólares al año y la posibilidad de crear un nuevo centro de datos al tiempo que se incrementa la productividad y se reducen casi 95 000 dólares en gastos.
La entidad bancaria pudo reducir el consumo eléctrico y los costes energéticos relacionados en 10 600 dólares al año.Pudo identificar 19 servidores que podían virtualizarse y ahorrar en costes energéticos y de mantenimiento.
La solución Avocent Data Center Planner ahorra a la empresa 45 minutos al día de gestión de la organización de los centros de datos y de planificación de las diversas solicitudes que tienen lugar cada día, con lo que ahorra a la empresa la cantidad estimada de 11 000 dólares al año en productividad.
La solución de DCIM de Emerson contribuye a que el personal de los centros de datos tome decisiones con más rapidez e inteligencia, lo que se traduce en menos horas de reuniones, mejor coordinación y agilización de procesos con un ahorro en productividad estimado de 18 000 dólares al año.
La entidad bancaria puede gestionar de forma rápida y eficaz solicitudes para mover, añadir y cambiar equipos (EMAC, por sus siglas en inglés) con un ahorro en productividad estimado de 50 000 dólares al año.
Gracias a la solución de DCIM de Emerson y a la mejor capacidad de gestión de centros de datos actuales que ofrece, la entidad bancaria puede posponer la creación de un nuevo centro de datos. Asimismo, al aplazar los pagos del préstamo, obtiene un ahorro estimado de 42 500 dólares.

miércoles, 2 de julio de 2014

¿De dónde obtendrán los centros de datos su electricidad en 2025??? @EmersonNP_CALA

Un gran mayoría de los participantes en la encuesta del Centro de Datos de 2025 creen que se requerirá menos energía en 2025 para producir el mismo nivel de rendimiento.
En los diez años previos, la tecnología surgió para mejorar las eficiencias del suministro eléctrico de extremo a extremo en un 25 por ciento.
Con respecto a la fuente del suministro eléctrico, los participantes en el Centro de Datos de 2025 son optimistas sobre el futuro de la energía renovable.En los lugares donde el suministro eléctrico con energía solar alcanza menos de un 1 por ciento de la potencia generada en EE. UU. en 2012, los participantes de la encuesta proyectan que podrá alcanzar un 21 por ciento en 2025. Asia Pacífico y Latinoamérica son más optimistas que EE. UU. y Europa sobre el potencial de la energía solar: cada una de estas regiones predice que un 25 por ciento del suministro eléctrico se producirá con energía solar. Europa Occidental (un 18 por ciento) y EE. UU. (un 15 por ciento) proyectaron un uso inferior de esta energía. La tecnología solar tendrá que avanzar mucho en los próximos años para que las aspiraciones de los encuestados se hagan realidad. Hoy, un panel solar de un metro cuadrado puede generar cerca de 800kWh por año en climas como el de Europa Occidental y el norte de EE. UU. El respaldar densidades de potencia de 6,4 kWh/rack requerirá ocho metros cuadrados de paneles solares para cada rack sin incluir la eficiencia del aire acondicionado o de la celda solar. Aun si solo el 20 por ciento del suministro eléctrico se produce con energía solar,el tamaño del equipo de generación de energía solar será casi el doble del tamaño del centro de datos. Aunque la eficiencia de la generación de energía solar con seguridad avanzará en los próximos diez años, se requerirán pasos agigantados para mantener el ritmo de los aumentos proyectados en la densidad de potencia de los centros de datos que hicieron los participantes del estudio. Como se describe más adelante, se
proyecta que la densidad de potencia promedio de los centros de datos alcance los muy ambiciosos (y tal vez poco realistas) 52kW/rack en 2025 (Figura 4). A pesar de que la densidad del centro de datos solo se duplica en los siguientes diez años, el espacio que ocupa el equipo de generación de energía solar será cuatro veces el que ocupa el centro de datos. Por supuesto que la energía solar no representa la única opción
potencial para un cambio significativo en el futuro perfil del suministro eléctrico de los centros de datos. Otras fuentes de energía no renovables podrían jugar un papel importante.
Si las tecnologías para la generación de energías renovables o alternativas realmente se vuelven responsables de un alto porcentaje del suministro eléctrico del centro de datos, es muy probable que tengan que lograr esos aumentos con base, al menos en parte, en la rentabilidad de los costos. La mayoría de los participantes predicen un aumento en el uso de la generación de energía privada en las instalaciones a hiperescala .Un
65 por ciento cree que la generación de energía privada es por lo menos probable y otro 23 por ciento lo considera una posibilidad más lejana.
En Asia Pacífico parece más probable el cambio a la generación de energía privada: Un 33 por ciento de los participantes en esta región creen que esto definitivamente pasará, y un 44 por ciento adicional consideran que será muy posible. Como un participante expresó,“los centros de datos serán coubicaciones con generación de energía y probablemente con opciones de enfriamiento que aprovechan el entorno, los cuales producirán su propia energía y enviarán el calor a bombas geotérmicas, contención de agua potable o instalaciones polares”.
Con respecto a la potencia de respaldo, un 30 por ciento de los participantes esperan que los sistemas de suministro ininterrumpido de energía (UPS, por sus siglas en inglés) de CA muy eficientes sean la fuente principal en 2025. Los UPS cuentan con
significativos avances en eficiencia en los años recientes gracias a la introducción del Eco-Mode y las conexiones en paralelo inteligentes y ahora pueden alcanzar niveles de eficiencia cerca del 99 por ciento, lo cual hace que sea menos probable, según la opinión de los participantes, que sean desplazadas por tecnologías competidoras.
Business Partner Tier 1 de Emerson Network Power

lunes, 30 de junio de 2014

¿Conoces el NetSure 9500, diseñado para data centers y aplicaciones de edificios comerciales???

Emerson Network Power ha añadido un nuevo sistema de potencia a su portfolio destinado a telcos, data centers y aplicaciones de edificios comerciales.
El NetSure 9500 400V DC es un sistema modular diseñado para dar a sus usuarios la capacidad para un crecimiento incremental.
A través de pequeñas unidades que se pueden integrar para formar un gran sistema colectivo, Emerson afirma que los usuarios pueden trabajar en torno a un único sistema en cada sitio que les emplee.
La compañía afirma que esto permitirá a los clientes ahorrar por un uso más económico del espacio en el piso, la potencia y la longevidad de los gastos de capital.
El NetSure 9500 400V DC está basado en la misma arquitectura utilizada en el sistema NetSure 4015 de 30kW, siendo el NetSure 9500 de 120kW el mayor de la oferta de 400V DC de Emerson.
El NetSure 9500 tiene un módulo de potencia que contiene secciones para la conversión, control y distribución de energía.
Un módulo de distribución crea  la capacidad necesaria para la ampliación de las posiciones de distribución de carga y un gabinete de baterías contiene una serie de baterías VRLA (plomo-ácido).
Emerson dijo que el sistema está diseñado para ser tolerante a fallos con rectificadores intercambiables en caliente que limitan las posibilidades de caídas.
Para los data centers en las compañías de telecomunicaciones el cambio de -48V DC a 400V DC reduce tanto la corriente como la cantidad de cobre necesaria para el transporte, lo que según Emerson puede reducir la cantidad de cable necesario y los costes de instalación hasta en un 80%.
Todos los data centers se beneficiarán de una simplificación en la cadena de energía, lo que recorta el número de conversiones y los puntos de fallo potenciales.
El NetSure 9500 ha estado a prueba en la compañía de colocation de Estados Unidos Steel ORCA.
El COO de Steel ORCA, Dennis Cronin, dijo que la industria está buscando formas de mejorar la fiabilidad a la vez que se recorta el coste.
“Este enfoque híbrido se basa en la promesa de la energía DC o continua”
Para ayudar a los clientes potenciales a comprender mejor las implicaciones, Steel ORCA está construyendo una sala de demostraciones, junto con Emerson, de modo que otros gestores de data centers puedan verlo en acción.

viernes, 27 de junio de 2014

Debido a la vulnerabilidad de la Infraestructura de IT, @EmersonNP_CALA presenta un análisis del impacto financiero!!!

Actualmente se ha dado un incremento en la dependencia en los sistemas de tecnología de la información para realizar las aplicaciones fundamentales de negocios. Entre estas,bancos, proveedores de servicios  e instalaciones de internet/ coemplazamiento,el rendimiento del centro de datos se convirtió en un producto monetizado.
Al reconocer la necesidad de abordar estas ideas equivocadas, Emerson Network Power se unió con el Ponemon Institute para realizar dos estudios detallados de estas percepciones, causas y los costos monetarios reales de la inactividad de los centros de datos —para un total de miles de dólares por minuto en promedio—así como cuáles vulnerabilidades de infraestructura tienen el impacto más significativo y costoso en la disponibilidad de los sistemas IT fundamentales.
El estudio, que terminó en 2011, descubrió una serie de conclusiones relacionadas con el costo de la inactividad. Con base en estimaciones de los costos de los participantes de la encuesta, el costo promedio de la inactividad del centro de datos fue de aproximadamente $5.600 por minuto.Con base en el incidente promedio reportado de 90 minutos de duración, el costo promedio
de un solo periodo de inactividad fue de aproximadamente $505.500. Estos costos se basan en una variedad de factores, que incluyen pero no se limitan a la pérdida o corrupción de datos, pérdidas de productividad, daño del equipo, detección de la causa principal y acciones de recuperación, repercusiones legales y regulatorias, pérdida de ingresos y repercusiones a largo plazo en la reputación.
Aunque los costos directos fueron responsables de casi un tercio de todos los costos reportados, los costos indirectos y de oportunidad—significativamente más difíciles de percibir por el personal no gerencial—demostraron ser mucho más costosos, al alcanzar el 62% de todos los costos resultantes de la inactividad del centro de datos.
Mientras que la interrupción de los negocios y la pérdida de ingresos se citaron dentro de las consecuencias más importantes de los costos de la inactividad, otros costos menos obvios, como pérdidas del usuario final y la productividad de IT también tuvo un impacto significativo en el costo de un periodo promedio de inactividad.
Los costos del equipo se encontraron entre los costos más bajos reportados durante un periodo de inactividad, con un promedio de aproximadamente $9.000 por periodo. Significando que los efectos residuales y hacia abajo del apagón del centro de datos son comúnmente más caros que los costos de detección y reparación de la causa principal de un apagón después de que este ocurrió.

jueves, 26 de junio de 2014

¿Su Centro de Datos opera al máximo de su rendimiento????

El tomar las decisiones adecuadas para mantener una elevada disponibilidad, maximizar la eficiencia y optimizar el uso de la capacidad existente en la actualidad es más sencillo.
La complejidad de  las infraestructuras y la rapidez del crecimiento demandan que las instalaciones y las TI colaboren para mantener el centro de datos funcionando al máximo de su rendimiento.Para que los centros de datos prosperen, deben ser capaces de supervisar,gestionar y medir sus activos mediante una solución integrada, rentable y en tiempo real.
La Plataforma Trellis  es una plataforma de optimización en tiempo real de infraestructuras, te permite tomar decisiones más inteligentes y con mayor rapidez, ofrece una visibilidad sin precedentes de infraestructuras críticas y de la repercusión de los cambios.
La plataforma Trellis controlará todo lo relativo al centro de datos proporcionando información exhaustiva sobre las dependencias del sistema para que los usuarios de los equipos informáticos y las instalaciones consigan un rendimiento óptimo de los centros de
datos. Con esta solución completa y unificada, podrá ver cuál es la situación real en su centro de datos y emprender acciones con total confianza.
La plataforma Trellis ofrece visibilidad sin precedentes y control sobre su infraestructura crítica.
Vea. Visualice toda la información importante del centro de datos y conozca la situación real (en tiempo real o como tendencia histórica).
Actúe. Emprenda acciones con confianza y valide los efectos de forma inmediata, evaluando su repercusión sobre la infraestructura de centros de datos.
Decida. Aproveche la capacidad de la plataforma Trellis para analizar información del estado en el centro de datos y brindar una profunda profunda perspectiva en la interrelación entre eficiencia, disponibilidad y capacidad para tomar decisiones bien fundadas.

martes, 24 de junio de 2014

¿Mejorar la eficiencia de los centros de datos con una base sólida???

Un sistema de racks diseñado para superar los retos que enfrenta su centro de datos hoy sus redes críticas transfieren voz, datos
y video cada vez en mayor cantidad. El sistema optimizado de racks DCF de Emerson Network Power.
Los sistemas optimizados de racks DCF ofrecen las siguientes ventajas:
Flexibilidad:
  • Disponible en ocho tamaños estándar para cumplir las necesidades del sitio.
  • Compatible con las PDU en rack de Emerson Network Power,los UPS de montaje en rack Liebert, contención de pasillos y busway modular Liebert MB: todo de una misma fuente.
  • Instalación de fábrica de las PDU en rack para una rápida implementación.
  • Accesorios que no necesitan herramientas simplifican la administración de cables y del flujo de aire y el montaje de componentes.
  • Capacidad de la carga estática de hasta 3000 lb/1.363 kg.
  • Integración sencilla del equipo de alimentación, enfriamiento y monitoreo.
Mayor disponibilidad:
  • Puertas frontales y traseras con perforación de un 75% ofrecen un flujo de aire óptimo al equipo interno.
  • Acceso sencillo para administrar el equipo.
  • Tiene cerraduras al frente y atrás para más seguridad.
  • Rápida implementación en el sitio.
  • El costo total de propiedad más bajo:
  • Una fácil instalación ahorra tiempo y dinero: bisagras más arriba, paneles duales a los lados, ajustes en un riel de 19”,marcas con la medida U en los rieles de 19”, ruedas de bajo perfil, accesorios que no necesitan herramientas.
  • Excelente valor por las características, la durabilidad y el precio.
  • Una parte integral de las soluciones completas para centros de datos de Emerson Network Power constituye ahorrar dinero y tiempo durante la configuración y la integración.
Emerson Network Power cuenta con una amplia gama de racks y gabinetes ajustados a cada aplicación y presupuesto.

jueves, 19 de junio de 2014

¿Te imaginas como será el Centro de Datos en el 2025???

Emerson Network Power realizó varias entrevistas a personas influyentes y clave de la industria; para construir una visión sobre el futuro de los centros de datos. 
El año 2025, once años después de haberse escrito este informe, representa el horizonte lo suficientemente cercano para proyectar cómo se desarrollarán las tendencias actuales (los centros de datos que se pongan en marcha hoy estarán a medio camino de su ciclo de vida proyectado en 2025) y aun así lo suficientemente lejano para que haya oportunidades para darle forma al futuro. 
Los años entre 2003 y 2008 estarían marcados por un crecimiento estable en la demanda de informática y almacenamiento pues
virtualmente todas las industrias se estaban volviendo dependientes de lo digital. Esto creó un aumento masivo en la capacidad del centro de datos. Los servidores nuevos se agregaban semanalmente en algunas instalaciones y cada generación de servidores eclipsaba a las pasadas en densidad de potencia. Cada vez más informática se consolidaba en el centro de datos y los centros de datos a su vez se consolidaban para simplificar la administración y reducir costos.
Las organizaciones luchaban para mantenerse al paso de las demandas de capacidad y los centros de datos se volvían cada vez
más heterogéneos y complejos.
En 2006, las densidades de rack alcanzaron 6kW en promedio, según Data Center Users Group (DCUG) patrocinado por Emerson Network Power. De repente los gerentes de centros de datos estaban luchando con los puntos calientes y la refrigeración
estaba limitando la habilidad de muchos centros de datos para agregar la capacidad necesaria. Los miembros de DCUG nombraron a la densidad de calor como la preocupación principal en la infraestructura en 2007, 2008 y 2009.
El crecimiento en la capacidad y la densidad llevó a una preocupación adicional: la eficiencia energética. Antes de 2007, los costos de la energía no eran un factor en la mayoría de los presupuestos de TI. Solo pocas organizaciones se molestaban en tener un medidor independiente para sus centros de datos, lo cual limitaba la visibilidad del consumo en aumento. Los gerentes de centros de datos estaban totalmente concentrados en mantener la disponibilidad más alta posible. Si esto significaba tener el centro de datos 10 grados más fríos de lo necesario o reservar un 20 por ciento de capacidad como respaldo contra una sobrecarga accidental de los recursos.Pero con el aumento de los precios de la energía y del consumo al mismo tiempo y el crecimiento de las preocupaciones del entorno, la industria ya no podía costear el seguir descuidando el consumo energético. Se introdujeron tecnologías de enfriamiento y potencia más eficientes, se adoptaron buenas prácticas más ampliamente y las organizaciones de TI comenzaron a buscar y desconectar servidores poco productivos en una lucha contra la expansión. “Cuando pensamos en los centros de datos en el 2000, la demanda de estos estaba impulsada en su mayoría por capacidad informática o procesamiento. Hoy, en la mayoría de nuestros centros de datos nuevos la demanda está impulsada por el almacenamiento y la necesidad no solo de almacenar datos si no de accederlos y usarlos”.Cabe destacar que la virtualización rompió la conexión entre las aplicaciones y los servidores físicos, lo cual permitió una mayor flexibilidad de administración y tasas de utilización de los servidores más altas. Las estrategias de Energy Logic de Emerson, publicadas en 2007, mostraron el enfoque que más impactaba la eficiencia energética: aumentar la eficiencia de los sistemas de TI que realizan el trabajo del centro de datos; como resultado, se crea un efecto en cascada el cual reduce el consumo en todos los sistemas de respaldo. Al aumentar la utilización de servidores, la virtualización tiene el potencial de aumentar la eficiencia de estos y reducir el consumo energético general del centro de datos. No sorprende que la virtualización contribuyera al porcentaje más alto de ahorro energético en el modelo de Energy Logic.
¿De dónde obtendrán los centros de datos su electricidad en 2025 y qué porcentaje de potencia necesitarán?
Los participantes en el Centro de Datos de 2025 son optimistas sobre el futuro de la energía renovable, en especial sobre la solar. En los lugares donde el suministro eléctrico con energía solar alcanza menos de un 1 por ciento de la potencia generada en EE.UU. en 2012, los participantes de la encuesta proyectan que podrán alcanzar un 21 por ciento en 2025. Asia Pacífico y Latinoamérica son más optimistas en cuanto al potencial de la energía solar: cada una de estas regiones predice que un 25 por ciento del suministro eléctrico se producirá con energía solar. Europa Occidental  (un 18 por ciento) y EE.UU. (un15%)proyectaron un uso inferior de esta energía.
La tecnología solar tendrá que avanzar mucho en los próximos años para que las aspiraciones de los encuestados se hagan
realidad. Hoy, un panel solar de un metro cuadrado puede generar cerca de 800kWh por año en climas como el de Europa
Occidental y el norte de EE. UU. El respaldar densidades de potencia de 6,4 kWh/rack requerirá ocho metros cuadrados
de paneles solares para cada rack sin incluir la eficiencia del aire acondicionado o de la celda solar. Aun si solo el 20 por
ciento del suministro eléctrico se produce con energía solar, el tamaño del equipo de generación de energía solar será casi
el doble del tamaño del centro de datos. Aunque la eficiencia de la generación de energía solar con seguridad avanzará
en los próximos diez años, se requerirán pasos agigantados para mantener el ritmo de los aumentos proyectados en la
densidad de potencia de los centros de datos que hicieron los participantes del estudio.
ALMACENAMIENTO E INFORMATICA 2025
Habrá un significativo aumento en la computación en nube y el almacenamiento en la nube, pues la mayoría de las
interfaces de usuario estarán distribuidas en dispositivos móviles o portátiles. Por otro lado, parte de la informática
corporativa siempre será necesaria y en realidad podría incrementarse conforme más funciones de inteligencia artificial se convierten en funciones internas para tomar decisiones y mejorar la productividad”
Algunos en la industria de las telecomunicaciones ven un futuro en el cual los centros de datos centralizados estarán respaldados por instalaciones de redes, las cuales traen más cerca de los suscriptores capacidades sofisticadas de informática. En este caso, las instalaciones de varias redes respaldarán cada centro de datos y las instalaciones de redes serán más que los centros de datos.
Casi la mitad de los participantes espera que el ciclo de vida de los servidores se mantenga en un rango de entre tres y seis años, muy frecuente hoy, con una respuesta promedio de 6,2 años. Si se vuelve real, un centro de datos en construcción hoy deberá trabajar con cuatro o cinco generaciones de nueva tecnología en su vida útil de 25 años.
Asia Pacífico proyectó los ciclos de vida más prolongados de los servidores comparado con otras regiones: un 55% predijo ciclos
de vida de más de siete años. Esto podría relacionarse con la actitud regional de reemplazo de tecnologías en vez de cambios
de tecnología. Existe una reticencia en esta región a reemplazar el equipo que todavía funciona y los negocios tienden a mantener su equipo por periodos más prolongados que en otras áreas del mundo.

martes, 17 de junio de 2014

¿Por qué el Monitoreo de Baterías es esencial?? @@EmersonNP_CALA

El Departamento de Energía de los Estados Unidos estima que el total de las pérdidas anuales de electricidad que sufren las industrias mayores pudieran ser tan altas como $150 billiones.

Industria                                                                                                     Costo Promedio Por Hora (2008)*
Operación del Mercado de Valores                                                                        $7,840,000
Operaciones de Tarjetas de Crédito                                                                      $3,160,000
Pago por Evento                                                                                                     $183,000
Ventas de Catálogos                                                                                              $109,000
Reservación de Aereolíneas                                                                                  $108,000
Ventas de Tickets via Teléfono                                                                              $83,000
¿Qué tan importante son las Baterías para los UPS???
El Monitoreo permite detectar a tiempo las celdas débiles y poder re-emplazarlas antes de correr el riesgo de perder la integridad del banco de baterías.
 Para Administrar los Costos es necesario:
  • Optimizar la vida de las baterías
  • Usar las lecturas de resistencia para proyectar la tendencia del estado de las baterías
  • Resistancia interna
  • Cambiar las celdas dañadas antes que estas afecten a otras celdas
  • Mantener un nivel balanceado del nivel de la resistencia en todas las cadenas redundantes
Si solo se remplazan las baterías periodicamente sin el monitoreo, no se podrán prevenir las fallas prematuras y solo se estará remplazando baterías buenas.
El Monitoreo hace más fácil mantener las baterías, ya que a  a largo plazo le proporcionará un sistema más confiable y una optima
vida a sus baterías.
Monitoreando Parámetros Críticos y Tomando Acciones Apropriadas
– Resistencia interna
– Temperatura
– Voltaje
– Voltaje de flotación
Las baterías débiles pueden ser detectadas y prevenir fallas usando un monitor de función completa.Cuando la resistencia de la batería aumenta,la capacidad de la batería va en descenso.
Se ha demostrado que cuando la resistencia de una celda aumenta en un 25% por encima de su valor base, la celda tiene menos
del 80% de capacidad.
Ventajas del Monitoreo
  • Reduzca sus riesgos de pérdida de energía por medio del Monitoreo del eslabón más débil
  • Responda pro activamente a fallos en las baterías y evite los altos costos asociados por falla de AC
  • Datos disponibles para reclamos de garantía.
OPTIMIZE LA VIDA DE SUS BATERÍAS
  • Mantenga a su personal y equipo salvo y seguro
  • Superior Ventana de Mantenimiento
  • Mantenga a su personal y equipo seguro 
  • Superior ventana de mantenimiento

martes, 10 de junio de 2014

SE ACERCA EL MUNDIAL Y PROMETE UNA AVALANCHA DE DATOS!!!!

Más allá de los retos a nivel deportivo y organizacional que el Mundial de Fútbol de Brasil está despertando, son muchos los desafíos tecnológicos que genera.
No sin razón, este evento deportivo incrementará significativamente los datos generados en los últimos Mundiales celebrados. La compañía NetApp estima que la cantidad de datos que serán procesados durante la cita alcanzará los 12,6 terabytes (cerca de 12.902 gigabytes), tal como informan desde Bnamericas.
La cifra supone un incremento de más de 4.000 gigabytes con respecto a los datos procesados en el Mundial de Alemania de 2006. Para dentro de ocho años, incluso, este crecimiento se producirá a tasas hasta ahora impensables. Las previsiones de NetApp para el Mundial de Fútbol de Catar de 2022 ascienden hasta los 1,3 petabytes (más de un millón de gigabytes).
Detrás de todo esto se situará una completa infraestructura tecnológica y de comunicaciones que permita procesar este volumen de datos. Tan solo durante la final del 13 de julio, unos 74.000 fans en Brasil subirán a Internet vídeos de un minuto en alta definición.
La cuenta atrás para el Mundial de Brasil ha comenzado y todo parece apuntar que, gane el país que gane, la tecnología también jugará un papel clave en la cita.