viernes, 28 de febrero de 2014

Ideas para aumentar la eficiencia enérgetica!!!

Entre las diversas ideas para aumentar la eficiencia energética podemos citar:
  • Mantenimiento constante de los equipos de alimentación y distribución de energía.
  • Acciones para mejorar la eficiencia del sistema de refrigeración.
  • Generación de energía en el propio lugar, como muestran algunos ejemplos internacionales.
  • Cambio eventual de hardware por modelos más eficientes.
La mejor manera de atacar el problema de ineficiencia energética es un abordaje holístico, considerando el data center como un todo,empezando por la medición de flujo de consumo de energía.
Además de la preocupación de las empresas con iniciativas de sustentabilidad, hay grandes incentivos para que los data centers reduzcan su consumo energético.
En toda actualización de modelo tecnológico, la totalidad de los riesgos debe ser considerada. Sin embargo, el escenario actual de baja productividad de los data centers y la creciente demanda de recursos indican la real necesidad de implementaciones de
nuevos modelos optimizados.
Las nuevas tecnologías no son el único punto a ser tenido en cuenta en el momento de proyectar un data center eficiente. Es necesario evaluar el parque instalado, los datos almacenados y procesados ,la visión de futuro y de negocios de la empresa. A partir de ahí, es posible optar por la solución más adecuada para cada tipo de necesidad.

martes, 25 de febrero de 2014

¿Es Toda la Carga Crítica para los Negocios????

La respuesta es  “sí”. Y en algunos casos,instituciones de servicios financieros o negocios relacionados con el comercio, por ejemplo, Pero aún en esos ejemplos, un análisis más profundo podría revelar una respuesta diferente. Asegurar la disponibilidad de las transacciones no es negociable, pero ¿qué pasa con algunas funciones internas de TI o de los sistemas de respaldo? Si algunas aplicaciones son menos críticas, ¿podrían subcontratarse en una coubicación o albergarse en la nube? Si es así, eso libera capacidad dentro del centro de datos.
Aún dentro del centro de datos, algunas organizaciones están comenzando a asignar aplicaciones menos críticas a los POD con una infraestructura menos sólida y ajustar las expectativas de disponibilidad según corresponda. El ahorro logrado con estos POD menos críticos se puede utilizar en otras partes, lo cual incluye reinvertirlo en la infraestructura en áreas más críticas que respaldan aplicaciones muy valiosas.
Es decir hay capacidad de la infraestructura disponible que no se usa, ya que aparentemente se tiende a confundir hasta a las organizaciones más enfocadas en TI. Los centros de datos crecen y evolucionan con el pasar del tiempo, al agregar servidores, potencia y aires acondicionados necesarios para respaldarlos; todas esas adiciones consumen valioso espacio. Las instalaciones podrían estar virtualizadas; una práctica que puede aumentar la eficiencia pero que al mismo tiempo complica la pregunta de la capacidad. En algún momento el tratar de descubrir cuánto exactamente puede aguatar la infraestructura existente se vuelve más difícil de lo que debería ser. Las tecnologías de administración de la infraestructura del centro de datos (DCIM) permiten a los gerentes de centros de datos entender cuáles sistemas de la infraestructura están en sus instalaciones, dónde están y cuáles aplicaciones respaldan esos sistemas. Ese nivel de visibilidad –entender dónde están las aplicaciones de varios niveles de criticidad y cómo reciben potencia y cómo se enfrían– desmitifica la capa física del centro de datos y permite a los gerentes descubrir la capacidad escondida dentro de sus instalaciones existentes.
Los enfoques tradicionales de la escalabilidad del centro de datos se pueden describir mejor como lineales: el negocio está creciendo, las demandas de TI aumentan con él; por esta razón va a ser necesario que el centro de datos respalde más aplicaciones en el futuro de las que respalda ahora. Así es como terminamos con centros de datos con recursos excesivos. Estos cumplen el requisito de disponibilidad, pero la inversión inicial de capital fue más alta de lo que hubiera sido para unas instalaciones mucho menos eficientes. La organización termina pagando más al principio y en la parte operativa, y eso se da al asumir que las tecnologías se mantienen viables cuando el negocio se extiende a todo ese espacio extra 5 o 10 años después. Si suena a una locura, eso es. Pero era una práctica común hace tan poco como 10 años.
Las tecnologías de hoy permiten un enfoque más flexible del crecimiento y la escalabilidad, lo cual le permite a los negocios invertir más prudentemente y administrar la necesidad de más capacidad, o menos, conforme aparece.

jueves, 20 de febrero de 2014

Predicciones para la Industria Mexicana de TIC en este 2014 conocelas!!!!

De acuerdo con IDC la principal firma de inteligencia de mercado, la industria de TIC en México crecerá 13% en 2014, contra 8.6% obtenido en el año 2013.
Las leyes secundarias de la Reforma de Telecomunicaciones, serán factores que activaran al sector de TIC.Los beneficios de las cuatro megatendencias tales como (Movilidad, Cloud Computing, Social Business y Big Data), están relacionados con la eficacia en almacenamiento,simplificación de procesos, reducción de gastos,rapidez y precisión. Ejemplo de ello es la creciente implementación del Cloud Computing, que en 2013 fue adoptado por 45% de empresas mexicanas y el éxito del Big Data en sectores financiero y comercial, harán crecer a este segmento de mercado un 20% para 2014.“El crecimiento económico, en la industria automotriz y aeronáutica, en la vivienda y en el acceso al crédito, mejorarán el panorama de los distintos mercados de TI, en comparación con 2013. De hecho, el sector mexicano crecerá por encima de Brasil y Rusia; similar a China y poco menos que India. Esto debido al alto índice de población y acceso a Internet, y principalmente a que las empresas usan TICs para mejorar sus procesos de negocios”, destacó Fierro. En el IDC Predictions Mexico 2014, los especialistas dieron algunos rangos de crecimiento esperado, para los distintos mercados de TI y lo que se espera para 2014:
 Las Predicciones en el Mercado

Edmundo Cruz, Analista de Servidores y Almacenamiento en IDC México, informó que el crecimiento total de este mercado será de 2.95% en el periodo de 2012-2017 y para 2014 de 3.68%. El almacenamiento crecerá 7% en 2014 y el de Servidores X86 9% en comparación con 2013. Las soluciones convergentes en conjunto (nube, movilidad, Big Data y Social Business) registrarán crecimiento del 54%. El Analista de Software de IDC México, Carlos Bravo destacó que el mercado de software crecerá 9.4% para 2014 en comparación con 2013. Algunos de los crecimientos que reportan los mercados dentro del segmento de software contra el año anterior son: CRM 10%, ERP 7.5%, System Software aumentará 4.5% y Software de seguridad 8%. Julio Barajas, Analista de Servicios de TI en el país, agregó que la generación de servicios de TI crecerá 9.4% para 2014 vs 2013. La industria financiera y comercial serán las que demanden más servicios como Hosted Application Management (18.98% más que en 2013), Hosting Infraestructure Services (13.68% más que en 2013) y Custom Application Development (5.49% más que en 2013), principalmente.
En cambio el crecimiento de la industria de Telecomunicaciones será de 6.3% en 2014, similar al crecimiento del año anterior que fué de 6.5%.
Algunos de los varios objetivos a alcanzar en este año por parte de este sector son estimular la competencia adecuando los marcos jurídicos; el abrirse a la inversión extranjera, y hacer cada vez un mejor aprovechamiento de infraestructura. Y en cuanto al concepto de infraestructura, deben aprovecharse al menos 90 Mhz del espectro liberado por la transición a la TV Digital.
El impacto en los servicios de telecomunicaciones se manifestará en dos rubros: Banda Ancha Móvil con un crecimiento en accesos para 2014 de 35% y Líneas Móviles creciendo 7.8%. “El reto en este campo lo deberán superar los carriers, quienes tendrán qué incrementar la cobertura de sus servicios, establecer alianzas para penetrar más en el mercado y añadir servicios de
valor agregado. En general, se espera una inversión en Servicios de Telecom de $35.32 mil millones de dólares para este año”, puntualizó  Iván Maldonado, Analista Asociado de Telecomunicaciones para IDC México, comentó que en los últimos tres años, el
mercado de redes empresariales en México se ha consolidado como uno de los más dinámicos en la región, siendo el segundo país más grande en el mercado de redes empresariales en toda América Latina, cuyo valor fue de $482.74 millones de dólares en el pasado 2013, esperando un crecimiento del 9% para el presente año.
Respecto al mercado WLAN, éste cerró con un crecimiento del 3%, lo que representa un valor de mercado de $33.64 millones de dólares. Esperando para 2014 un aumento de la implementación de WLAN para facilitar los objetivos del gobierno, lo que brindaría un crecimiento del 18%.El mercado de switches creció 4%, debido a un menor precio promedio en el número de puertos originado por la competida oferta de switches en el mercado y los pocos proyectos licitados, lo que equivale a $196.98 millones de dólares en 2013 respecto al año anterior. Para 2014 se espera un incremento del 8%”, destacó el analista.
El mercado de routers en México cerró el año con un decrecimiento del 26%, lo que representó 33.64 millones de dólares respecto
al año anterior; sin embargo, se espera un crecimiento del 7% para 2014. Por su parte, el segmento de Security Appliances alcanzó un crecimiento del 8% en 2013, equivalente a $95.5 millones de dólares.
Bajo un entorno de amenazas virtuales cada vez más sofisticado, la demanda de estas soluciones continuará siendo una inversión prioritaria dentro de las organizaciones para 2014, por ello se espera un crecimiento del 11 %.

miércoles, 19 de febrero de 2014

¿Sabías que los niveles de ociosidad de un #DataCenter esta alrededor de los 80 a 90% en un análisis de productividad??

Diversas investigaciones  demuestran que los niveles promedio de ociosidad de los data centers están alrededor de
los 80 a 90%, índices que pueden ser atribuidos a dos características básicas:
Planeamiento para el pico de producción:
El hardware es dimensionado como para soportar el pico de actividad de un determinado sistema,sin importar si es alcanzado una vez a la semana o al mes. Como por ejemplo sistemas de nómina de pagos, que demandarían procesamiento durante pocos días del mes.
Baja flexibilidad:
El nivel de productividad de los data centers podría ser superior si los administradores pudieran compartir en diversos hardwares el procesamiento de diferentes aplicaciones: las máquinas de la nómina de pagos podrían, por ejemplo, procesar sistemas de provisión en el período en que no tienen demanda. Aunque las tecnologías que permiten esa flexibilidad están disponibles, su nivel de implementación todavía no es significativo y los procesos de manejo de TI muchas veces no están preparados para ese salto tecnológico.
A pesar de la existencia de espacios ociosos que podrían ser ocupados por nuevos workloads, el número de nuevas implementaciones sigue creciendo, permitiendo atender la demanda por más procesamiento y capacidad de almacenamiento.
En 2008, el parque mundial de servidores llegó a 35 millones de máquinas, y siguiendo a IDC, experimentará un crecimiento de aproximadamente 40 millones de unidades dentro de los próximos cinco años.
Para tener una idea del crecimiento del tráfico de datos en Internet, podemos ver abajo la proyección realizada por la empresa británica de investigación Analysys Mason. El gráfico muestra proyecciones de crecimiento de tráfico hasta 2011, por tipo de
aplicación. La gran mayoría de esas aplicaciones demanda una capacidad de procesamiento en ambientes de data centers.
Nuevas tendencias de mercado, como cloud computing (computación en nube), SaaS (Software as a Service),virtualización de desktops, sites para disaster recovery, convergencia de comunicaciones, social computing software, entre otras, tienden a demandar más procesamiento y almacenamiento, lo que obliga a la implementación de nuevas soluciones que permitan aumentar la productividad y soportar la creciente demanda.
Por lo tanto, si las empresas amplían sus infraestructuras en la misma medida en que aumenta el volumen de datos que procesan, las inversiones para el mantenimiento de esos parques serán excesivamente elevadas y habrá poco excedente –o casi nada– para la
innovación.
Como resultado de esa situación, se tiende a la pérdida de competitividad y la imposibilidad de mantener los negocios en niveles sustentables. Por otra parte, mayores parques tecnológicos significan mayor complejidad de gerenciamiento y, consecuentemente,
mayor necesidad de recursos.

lunes, 17 de febrero de 2014

¿Conoces la selección ideal de un UPS??

La selección ideal del UPS repercute directamente en el Diseño del Data Center y en el nivel de confiabilidad que deseamos. En la parte de Diseño tendrá afectación en los espacios requeridos, capacidad en los climas para mantener la temperatura operacional del UPS en el momento de un corte de energía, capacidad de la subestación, diseño de capacitores o filtros para la corrección del factor de potencia, material del Piso Falso, calibres de conductores, capacidad de interruptores y por consiguiente tamaño de canalizaciones, entre otros puntos.
Para el caso de confiabilidad se deberán considerar los siguientes puntos:
  • El tiempo promedio entre fallas o MTBF (Mean Time Between Failures), el cual todo fabricante de UPS lo debe proporcionar y que nos indica, en pruebas de laboratorio realizadas a los UPS, las horas que pasarán antes de que la unidad presente una falla. Entre mayor sea este número, es más confiable el UPS. Algunos fabricantes lo omiten por que no son competitivos.
  •  Que sea un UPS fabricado con un mismo nivel de calidad, es decir, que todos sus componentes internos sean de la misma marca o fabricante.
  • Que la garantía supere los dos años respaldados por fábrica, lo cual es un indicador de la confianza del fabricante en su producto.
  • Que la tecnología en su rectificador e inversor (parte medular del sistema), sean de última generación.
  • Que el fabricante tenga permanencia en el mercado, y que su distribución sea a través de empresas reconocidas y con técnicos certificados. Para el caso de afectaciones a la infraestructura, debemos de evaluar las características mencionadas en cada uno de las siguientes cuatro partes del UPS: 
  1. ENTRADA  
  • Factor de Potencia. El ideal es 1 o lo más cercano a este. Esto es clave para saber qué tanto puede repercutir en el arreglo de capacitores que se tiene en la alimentación, qué tanto me tengo que preocupar por compensar el factor de potencia para que no afecte a mi factor general y evitar así posibles multas.
    2. SALIDA
El ideal es 1 o lo más cercano a este. Este factor determina la potencia real (kw) que proporcionara la UPS. Comunte la capacidad de los UPS viene especificada en potencia aparente, sin embargo la capacidad de la carga a conectar esta especificada en Watts, asi que un punto clave en la selección del UPS es fijarnos en el FP de salida. 

jueves, 13 de febrero de 2014

¿Sabías que el Liebert APM respalda el crecimiento de TI???

Las interrupciones del suministro eléctrico,la flexibilidad y eficiencia futura de la infraestructura del centro de datos, se pueden evitar con el UPS Liebert APM. Ya que ofrece una eficiencia de hasta un 94% con niveles típicos de carga entre los más altos en su clase.
Resulta aun más eficiente cuando la capacidad se acopla a las necesidades actuales del sistema,sin necesidad de adquirir sistemas con capacidades mayores.
Un índice de alta eficiencia (de hasta un 94%) con una curva de eficiencia virtualmente plana con una carga del 50-100%, que lleva a un ahorro significativo de costos.
El UPS Liebert APM de 90kW a carga plena, con un 2% de ventaja en la eficiencia en comparación con los UPS competidores, permite ahorrar unos $1.800 anuales (al asumir $0,10 por kW por hora).
El Liebert AMP respalda entornos dinámicos y el crecimiento de TI con opciones para comunicaciones, aplicaciones y crecimiento.
Flexibilidad
  • La capacidad se puede aumentar en incrementos de 15kW con los ensamblajes FlexPower .
  • El modelo de 45kW incluye baterías internas y el modelo de 90kW usa gabinetes externos de baterías.
  • Fácil instalación, con acceso frontal para mantenimiento y ocupa un área más pequeña.
  • Un bypass y una distribución homogenizados con el UPS aumenta la confiabilidad y seguridad al cambiar la carga protegida a la alimentación del bypass para cuando se realizan labores de mantenimiento. La entrada de los cables por la parte inferior o superior permiten la instalación en lugares con o sin piso elevado.
  • Configuraciones con transformador de aislamiento para voltajes de entrada de 208, 220, 480 y600V.
El Liebert APM con base en filas (in-the-row) es ideal para: 
  • Centros de datos pequeños y medianos.
  • Salas de servidores.
  • Áreas de producción.
  • Instalaciones y pruebas de laboratorio.
  • Centros de control de procesos o telecomunicaciones

martes, 11 de febrero de 2014

¿Cuál es la prioridad para los gerentes de #DataCenter disponibilidad o eficiencia en el sistema eléctrico???

Históricamente, los diseñadores y gerentes de centros de datos han escogido entre la disponibilidad y la eficiencia en el sistema
eléctrico del centro de datos. Los sistemas de UPS de doble conversión proporcionan la más alta disponibilidad pero no pueden
proporcionar la misma eficiencia que los sistemas en línea. El proceso de conversión que asegura un acondicionamiento integral
de la energía y un mejor aislamiento del equipo electrónico sensible del suministro eléctrico también introducen algunas
pérdidas en el proceso.
Los avances en la tecnología de UPS de doble conversión han cerrado la brecha en la eficiencia y se han introducido características
que permiten que los sistemas logren tasas de eficiencia cercanas a las de los sistemas en línea.
Aproximadamente el 4-6% de electricidad que pasa por un UPS de doble conversión se usa en el proceso de conversión. Esto
tradicionalmente se ha aceptado como un precio razonable a pagar por la protección con el sistema de UPS, pero con las nuevas
opciones de alta eficiencia, el proceso de conversión puede pasar por un bypass y aumentar la eficiencia cuando la criticidad del
centro de datos no es tanta o cuando se sabe que el suministro eléctrico cuenta con la mejor calidad. Esto se logra al incorporar
un bypass de conmutación estática y automática al UPS. El bypass funciona con muy alta velocidad para lograr una transferencia
sin interrupciones de la carga al sistema del suministro eléctrico o de respaldo para permitir el mantenimiento y asegurar
un suministro ininterrumpido de potencia en caso de una sobrecarga grave o una pérdida instantánea del voltaje del bus. La
transferencia se logra en menos de 4 milisegundos para evitar cualquier interrupción que podría apagar el equipo de TI. Con
controles inteligentes, el bypass se puede mantener cerrado, y evitar el proceso normal de conversión de CA-CD-CA mientras el
UPS monitorea la calidad del suministro eléctrico del bypass.
Cuando el UPS detecta una falla en la calidad del suministro eléctrico fuera de los estándares aceptados, el bypass se abre y transfiere la energía de vuelta al inversor para corregir las anomalías. El inversor se debe mantener constantemente listo para aceptar la carga y, por ende, necesita controlar la potencia, y la transferencia debe ocurrir sin alteraciones para evitar una interrupción del funcionamiento del bus crítico. El requisito de potencia está por debajo del 2% de potencia nominal, lo que crea un ahorro potencial del 4,1-4,5% comparado con los modos tradicionales de funcionamiento.

lunes, 10 de febrero de 2014

América Latina, la región con mayor crecimiento en el mundo en la instalación de Centro de Datos!!!!

Algunos de los retos que atraviesa la industria de los Data Centers en América Latina son mayor rendimiento, eficiencia energética y escalabilidad, los cuales a su vez representan oportunidades para los integradores de soluciones de enfriamiento, gestión, seguridad física, energía y sistemas de rack entre otras tecnologías.
 Y hablando de América Latina que muestra un crecimiento en el ranking mundial en la instalación de centros de datos certificados y de gran capacidad. Y este año es clave para un crecimiento exponencial, países como Costa Rica con el apoyo del gobierno y la iniciativa privada apuestan por una especialización de servicios en la nube y big data posicionándose en el ranking mundial de eficiencia energética, además de perfilarse como un potencial almacén de datos para multinacionales y gobiernos.
Siendo Brasil el país que más invierte con un 40% del total. En el mundo la firma de análisis estimó que la inversión en soluciones de energía y enfriamiento que soporten los centros de datos será mayor a los 15 mil millones de dólares en 2014.
En cuanto al crecimiento que han experimentado los pequeños mercados de Perú y Chile donde regionalmente se prevee crecer más de un 10%  al año continuamente hasta el 2016.
Si se hiciera un cronograma de lo que ha sido la evolución de los Centros de Datos podríamos mencionar que hace dos años las tendencias que marcaron este segmento fue la virtualización aunada a la conjunción de las tecnologías convergentes, sin dejar de mencionar que a este suceso le siguió la explosión tecnológica para la nube privada.

jueves, 6 de febrero de 2014

Tres opciones de Mantenimiento para tu #DataCenter tú cúal prefieres???

Actualmente existen tres tipos de mantenimiento:antes, durante o después de un fallo, el objetivo es reducir riesgos técnicos y económicos.Al contar con un Data Center se debe tener en cuenta las dimensiones de los equipos y determinar que servicio se quiere contratar, asesorarse con empresas especializadas en mantenimiento de Data Center para mantener en buen estado los datos de tu negocio.
En el caso del PREVENTIVO: el objetivo principal es alargar la vida útil de los equipos y reducir posibles fallas, implica inspecciones y la detección de posibles problemas que puedan presentarse. Se revisan las condiciones generales de la infraestructura física, se reemplazan piezas, se ajustan componentes, se lleva a cabo una lectura de los paneles de distribución, limpieza de filtros de aire y agua.  Los contratos de este tipo suelen establecerse anualmente como mínimo  estableciendo visitas periódicas a la instalación de acuerdo a los requerimientos y dimensiones del Data Center.
El mantenimiento PREDICTIVO se hace en los equipos de tecnologías no invasivas y en los que se puede predecir que tendrá un fallo intermitente. 
Y contrario a los dos anteriores el mantenimiento CORRECTIVO se hace cuando ya se ha producido la avería fallo y el equipo o equipos han dejado de funcionar o están dañados. Su objetivo es detectar, identificar y reparar el fallo.
Existen dos tipos de mantenimiento correctivo: no programado y programado.
En el no programado el problema surge inesperadamente y se debe solucionar inmediatamente; mientras que en el mantenimiento correctivo programado la reparación puede esperar y se puede realizar cuando se cuente con los recursos técnicos, materiales y de personal.Es decir se corrige el fallo de forma planificada y sin interrumpir el funcionamiento del sistema.
El mantenimiento es un procedimiento que no se puede dejar atrás, que debe tenerse en cuenta incluso desde el momento de diseñar el Data Center.
Su fin es evitar fallas y sus beneficios económicos son enormes, considerando las pérdidas que generan las interrupciones no programadas. Debe ser considerado como una inversión y no como un gasto.
Es un proceso que garantiza el buen estado de cada una de las piezas que conforman la infraestructura. Permite que los equipos funcionen con eficiencia y el más alto rendimiento, reduce los costos de reparación de incidentes e interrupciones, mejora la disponibilidad, la rentabilidad y evita que pequeños problemas se conviertan en catástrofes en el Data Center.

miércoles, 5 de febrero de 2014

Emplear el Piso Elevado te permite suministrar frío a los equipos del centro de datos!!!!!

Actualmente muchos centros de datos están instalados con equipos en el piso convencional y les suministran frío mediante unidades de aire acondicionado por hielera, en altura y de sala enfoque que combinan con la contención de pasillo caliente. Estos métodos alternativos pueden implicar ahorros energéticos de 24%.
En cambio un método habitual para suministrar frío a los equipos del centro de datos es trabajar con piso elevado. Esa estructura sirve como cámara de distribución para suministrar aire frío a las entradas de aire de los servidores.
Uno de los motivos del mayor nivel de eficiencia energética es la reducción de las fugas de aire frío, estas son originadas en los recortes en el piso elevado para pasaje de cables necesarios para la conexión con los racks y unidades PDU. El desperdicio asociado al piso elevado se genera cuando los recortes en el piso permiten que el aire frío saltee las entradas de aire de los servidores informáticos ubicadas al frente de los racks y se mezcle con el aire caliente de la parte posterior de los racks. Esta práctica de diseño puede dar lugar a concentraciones de calor, pisos con cámaras obstruidas y una reducción general de la eficiencia del sistema de enfriamiento.
Tender el cableado de potencia y de datos en altura reduce la fuga total de aire y genera  ahorros de energía a partir del cableado en altura. Esta importante reducción en la fuga de aire permite que se eleve la temperatura del aire de retorno de las manejadoras de aire de la sala de cómputo, lo que da como resultado el aumento de la capacidad de enfriamiento de cada unidad. En última instancia, se reduce la cantidad de unidades necesarias.
 Sin embargo, cuando el tendido se hace en altura ocurre un enredo de cables. El gran volumen de cables enredados impide el tendido de nuevo cableado porque resulta imposible retirar  los cables fuera de uso.Y las bandejas de cables empiezan a vencerse por el peso de los cables, lo que aumenta el riesgo de falla de los equipos.
La solución es organizar el cableado en bandejas montadas en diferentes niveles. Esta organización permite al personal del centro de datos clasificar los cables y planificar su ubicación, integración y retirar los cables que no se encuentran en uso. Y permitir que los avances en la tecnología de bandejas de cables garanticen que los centros de datos se conviertan en entornos dinámicos.


martes, 4 de febrero de 2014

¿Conoces El sistema Liebert con tecnología Flex Power????

El sistema Liebert APS respalda los requisitos de potencia monofásica de hasta 20kVA/18kW. Esto elimina la necesidad de hacer conexiones excesivas, lo cual aumenta la eficiencia operativa y contribuye a disminuir el costo total de propiedad del sistema de UPS. Como resultado, el sistema puede alcanzar hasta un 92 por ciento de eficiencia en el modo de doble conversión, lo cual la convierte en la eficiencia más alta en su clase. El UPS modular Liebert APS está disponible globalmente.
Para mejorar la disponibilidad del sistema, el UPS Liebert APS tiene un diseño totalmente redundante, lo cual permite a la carga crítica funcionar con potencia acondicionada sin importar cualquier fallo único dentro del sistema. Cuenta con un bypass de mantenimiento integrado para que la carga conectada siga funcionando mientras el sistema recibe mantenimiento. Su escalabilidad modular permite que los usuarios del sistema Liebert APS agreguen capacidad de potencia o tiempo de respaldo rápidamente para satisfacer los cambiantes requisitos de potencia del equipo en los racks sin tener que apagar el sistema. El sistema también está disponible en modelos con transformador que proporcionan aislamiento eléctrico para aumentar aún más la confiabilidad. El UPS Liebert APS cuenta con la tecnología de comunicación en tiempo real y diagnósticos remotos LIFE de Emerson, lo cual proporciona mantenimiento activo, disminuye el tiempo promedio de reparación (MTTR) y mejora el tiempo promedio entre fallos (MTBF).
Con el sistema Liebert APS, las organizaciones pueden estar tranquilas gracias a que el confiable UPS puede aumentar la capacidad para cumplir la demanda de TI y puede crecer sin periodos de inactividad.
El sistema modular Liebert APS monofásico está diseñado para sitios medianos y pequeños que esperan tener requisitos de potencia en aumento conforme se actualizan a servidores más grandes, agregan capacidad de almacenamiento y usan procesadores más potentes para cumplir la creciente demanda de aplicaciones que requieren muchos recursos. Los módulos FlexPower permiten que la capacidad de potencia aumente en incrementos de 5kVA/4,5kW hasta 15kVA/13,5kW ó 20kVA/18kW. También se puede agregar módulos de baterías conforme sea necesario para aumentar el tiempo de respaldo. Los módulos FlexPower y los de baterías se pueden intercambiar en caliente y el usuario los puede cambiar o agregar.
El UPS Liebert APS se puede instalar en cualquier centro de datos o entorno de redes, con pisos elevados o sin estos, o en gabinetes estándar para rack. Los tres puertos IntelliSlot permiten conectar varios módulos de comunicación y control. El sistema de UPS es comaptible con el sistema de administración de la infraestructura del centro de datos (DCIM) de Emerson Network Power, la plataformaTrellis, y también es compatible con los sistemas de monitoreo e informes Liebert Nform y Liebert SiteScan. El UPS Liebert APS incluye el software de apagado Liebert MultiLink para un apagado confiable y seguro de las aplicaciones protegidas.