viernes, 31 de enero de 2014

Cloud Computing y Virtualización promesas para atender la demanda creciente de la infraestructura

El concepto de cloud computing promete materializar la visión de transformar toda la infraestructura de TIC en servicios. El modelo tiene el potencial de transformar la industria, creando nuevos paradigmas tales como:
• La disponibilidad (o ilusión) de recursos infinitos, eliminando la necesidad de planeamiento a largo plazo.
• La eliminación del planeamiento para el pico nuevas compañías o productos podrán iniciar sus operaciones con infraestructuras mínimas y adicionar nuevos recursos de forma rápida, de acuerdo a sus necesidades.
• La posibilidad de pagar por uso de procesamiento por un intervalo de tiempo (horas o días) de acuerdo a necesidades específicas del negocio.
 Por su parte la virtualización  es un concepto con varios casos de implementación y, en mayor o menor medida, gran parte de las empresas ya utiliza algún tipo de servicio virtualizado en sus data centers.
En América Latina, según estimación del sector, el nivel de virtualización aún es bajo comparado con los mercados más maduros: hoy, menos del 10% del parque regional de servidores es virtualizado, lo que indica una fuerte tendencia de nuevas implementaciones.
Virtualización y cloud computing han sido las palabras del momento en el mercado de data centers. Aunque encierren conceptos y aplicaciones diferentes en el mercado, la primera como tecnología y la segunda como modelo de negocio– prometen tratar el
problema de baja productividad y atender la creciente demanda de infraestructura.
"Ambas prometen tratar el problema de baja productividad y atender a la demanda creciente de infraestructura".

jueves, 30 de enero de 2014

Conoce algunas ideas para incrementar la eficiencia energética !!!!

La Unión Europea estima que en el Reino Unido, los data centers responden por el 3% del consumo energético del país. Entre las preocupaciones de las empresas con iniciativas de sustentabilidad, hay grandes incentivos para que los data centers reduzcan su consumo energético. 
El impacto en los costos operacionales puede llegar al 30% en algunos casos, como el de co-location.La mejor manera de atacar ese problema de ineficiencia energética es un abordaje holístico, considerando el data center como un todo, empezando por la medición de flujo de consumo de energía.
Sin embargo, el funcionamiento de máquinas de alta densidad en ambientes tradicionales tiene enorme impacto en el consumo energético y climatización. Tal hecho ilustra la complejidad creciente y la interrelación cada vez mayor del ambiente físico con la
infraestructura de TIC de los data centers.
En ese contexto, crecen las iniciativas de TIC verde dentro de los proyectos de data centers, debido a que son grandes consumidores de energía eléctrica.
Entre las diversas ideas para aumentar la eficiencia energética podemos citar:
• Mantenimiento constante de los equipos de alimentación y distribución de energía.
• Acciones para mejorar la eficiencia del sistema de refrigeración.
• Generación de energía en el propio lugar, como muestran algunos ejemplos internacionales.
• Cambio eventual de hardware por modelos más eficientes.

miércoles, 29 de enero de 2014

¿Sabes qué errores no se deben cometer al construir un #DataCenter????

Cuando se lleva a cabo la ejecución de las obras y  los mantenimientos de los data centers se adquieren distintas experiencias en las ingenierías.Como en el siguiente caso
Sistema de refrigeración mixto
Al realizar la ingeniería de diseño en una empresa multinacional,la solución de refrigeración se perfilaba para un sistema mixto de expansión directa, donde el nuevo Data Center debía tener zonas de baja densidad y otras zonas con refrigeración por hilera preparada para alta densidad. El cliente solicitaba una solución de refrigeración perimetral con inyección bajo piso, ya que suponía que su data center no necesitaría alta densidad.
Esta solicitud no era viable ya que en poco tiempo se  debería hacer una modificación si no optaban por un sistema mixto. Ante esta situación el proyecto final comprendío la instalación de 4 equipos de aire acondicionado por inyección bajo piso,era un centro de datos de 40 racks que inicialmente arrancaría con 2 equipos de refrigeración y quedaba la instalación preparada para la incorporación de 2 equipos al momento que el consumo así lo requiriera. El Data Center quedó diseñado tras seguir las indicaciones del cliente a los 7 meses de funcionamiento el Data Center tenía un problema de mal diseño en su sistema de refrigeración ya que se tenían problemas de temperatura en algunas zonas del centro de datos ya que durante esos siete meses se habían colocado  6 racks con nuevos equipos con un promedio de 8 Kw de consumo eléctrico en cada rack y se habían ubicado todos en la misma fila. Se trataba de un datacenter de 4 filas de 10 racks, donde la primer fila correspondía a equipos de comunicaciones, las dos filas siguientes estaban completas con servidores y racks que no superaban un consumo promedio de 3 o 4 Kw por rack, y la última fila tenía un consumo de entre 7 y 8 Kw por rack, y al instalar el tercer equipo de aire acondicionado previsto para crecimiento,haría que el data center recibiera un 50% mas del aire que se estaba inyectando inicialmente. Pero el problema seguía existiendo ya que en la fila donde se encontraban los equipos de comunicaciones había un exceso de refrigeración y la fila de 7 Kw de consumo por rack seguía con problemas de elevada temperatura. Y la solución era armar un centro de datos con zonas de alta densidad para alojar racks con consumos de energía elevados.
Se terminaron encausando los pasillos fríos y calientes de la fila destinada a alta densidad, e instalando 2 equipos de aire acondicionado para refrigeración por hilera, lo que aisló del resto del data center el gran calor generado por la zona de alta densidad.
A lo que se puede concluir que al efectuar un diseño se debe tener la certeza de como se dará el crecimiento y la densidad de consumo en el data center, por lo que se recomienda que la instalación quede preparada, sea flexible y permita soportar zona de alta densidad, utilizar diseños mixtos en donde los bajos consumos pueden ser refrigerados por un sistema de inyección bajo piso perimetral y las zonas de alta densidad por sistemas de refrigeración por hilera.

martes, 28 de enero de 2014

Hay tres estrategias clave para crear una infraestructura más escalable las conoces???

El profundo entendimiento de la carga de TI, su criticidad y la capacidad disponible pueden ayudar a las empresas a desarrollar una estrategia para crear una infraestructura escalable de TI. Los servicios en la nube o en coubicaciones pueden ser un complemento viable a los servicios de TI internos.
Hay tres estrategias clave para crear una infraestructura más escalable:
Usar tecnologías avanzadas o software para liberar la capacidad existente y ampliarla o disminuirla.
La tecnología ahora permite la escalabilidad de la infraestructura de hora en hora. Las aplicaciones que experimentan un uso pico durante las horas laborales pero casi se apagan totalmente durante la noche no requieren el mismo nivel de respaldo de la potencia y del aire acondicionado las 24 horas. Las infraestructuras inteligentes se pueden ampliar o reducir según es necesario: inactivar el UPS, por ejemplo, cuando no se necesita y reactivarlo durante las horas pico. Las soluciones de aire acondicionado avanzadas reaccionan en tiempo real a los cambios de la temperatura, lo cual también permite ampliar o reducir la actividad según sea necesario.
Llevar ese control al siguiente nivel significa que aquellos sistemas de las infraestructuras fuera de ciclo se pueden usar para respaldar otras aplicaciones que podrían estar alcanzando un pico al mismo tiempo. Entender estos patrones y optimizar los índices de utilización mejora dramáticamente la eficiencia energética en todas las instalaciones y ayuda a evitar tener centros de datos sobredimensionados. Las instalaciones que experimentan fluctuaciones regulares de carga pero con un crecimiento modesto podrían construir una infraestructura eléctrica y de enfriamiento con estos controles avanzados.
Escalar con bloques de construcción
La introducción de los sistemas de potencia y de aires acondicionados modulares, integrados y autocontenidos ha tenido un impacto significativo en el centro de datos en los últimos 10 años, tanto como cualquier avance en los servidores. Estas tecnologías más pequeñas y ágiles (incluyen todo desde los UPS y aires acondicionados con base en filas hasta grandes contenedores con infraestructuras completas) facilitan la inversión gradual en la capacidad de la infraestructura. Las organizaciones en crecimiento pueden agregar una fila de racks junto con la potencia y aire acondicionado para respaldarlas con poca o ninguna interrupción de la infraestructura existente o agregar el equivalente de un centro de datos pequeño e individual con una solución en contenedores. Las únicas restricciones son espacio y presupuesto.Estas restricciones son reales. A largo plazo, el gasto de capital relacionado con estas compras; el sacrificio en términos de los gastos operativos (varios sistemas no son tan eficientes como un solo sistema grande y requieren más servicios); y el espacio que ocupan con el tiempo proporcionan verdaderos beneficios en ganancias graduales.
Simplemente, ¡Hacerlo!
Algunas veces todos los arreglos a corto y mediano plazo retrasan lo inevitable. Si un centro de datos:
a) Alcanzó los límites de su capacidad existente;
b) Agotó sus opciones para liberar capacidad;
c) Se quedó sin espacio físico para crecer,
d) Descartó la subcontratación como una opción, entonces llegó el momento para construir nuevas instalaciones ¿Y las buenas noticias? El centro de datos se puede construir con la escalabilidad en mente y con acceso a las tecnologías para la infraestructura que permiten un eficiente e inteligente crecimiento de TI que cumple las necesidades actuales y futuras del negocio.

lunes, 27 de enero de 2014

¿Sabias que los niveles promedio de ociosidad de los data centers están alrededor del 80 al 90%????

A pesar de la existencia de espacios ociosos que podrían ser ocupados por nuevos workloads, el número de nuevas implementaciones sigue creciendo, permitiendo atender la demanda por más procesamiento y capacidad de almacenamiento.
En 2008, el parque mundial de servidores llegó a 35 millones de máquinas, y siguiendo a IDC experimentará un crecimiento de aproximadamente 40 millones de unidades dentro de los próximos cinco años.
Nuevas tendencias de mercado, como cloud computing (computación en nube), SaaS (Software as a Service),virtualización de desktops, sites para disaster recovery, convergencia de comunicaciones, social computing software, entre otras, tienden a demandar más procesamiento y almacenamiento, lo que obliga a la implementación de nuevas soluciones que permitan aumentar la productividad y soportar la creciente demanda. Por lo tanto, si las empresas amplían sus infraestructuras en la misma medida en que aumenta el volumen de datos que procesan, las inversiones para el mantenimiento de esos parques serán excesivamente
elevadas y habrá poco excedente para la innovación.
Como resultado de esa situación, se tiende a la pérdida de competitividad y la imposibilidad de mantener los negocios en niveles sustentables. Por otra parte, mayores parques tecnológicos significan mayor complejidad de gerenciamiento y, consecuentemente,
mayor necesidad de recursos.
Un ambiente o área de negocio que opere a una tasa promedio de 90% de ociosidad sería condenado, en cualquier análisis de productividad, a una profunda reestructuración o a su extinción. Números de mercado proyectados por diversas firmas de investigación demuestran que los niveles promedio de ociosidad de los data centers están alrededor de los 80 a 90%, índices que pueden ser atribuidos a dos características básicas:
Planeamiento para el pico de producción:
El hardware  es dimensionado como para soportar el pico de actividad de un determinado sistema, sin importar si es alcanzado una vez a la semana o al mes. Como ejemplo, podemos citar sistemas de nómina de pagos, que demandarían procesamiento
durante pocos días del mes.
Baja flexibilidad: el nivel de productividad de los data centers podría ser superior si los administradores pudieran compartir en diversos hardwares el procesamiento de diferentes aplicaciones: las máquinas de la nómina de pagos podrían, por ejemplo, procesar sistemas de provisión en el período en que no tienen demanda. Aunque las tecnologías que permiten esa flexibilidad están disponibles, su nivel de implementación todavía no es significativo y los procesos de manejo de TI muchas veces no están preparados para ese salto tecnológico.

viernes, 24 de enero de 2014

La Infraestructura eléctrica de un #DataCenter necesita ser de alta confiabilidad y disponibilidad

La infraestructura eléctrica de un Data Center necesita ser de alta confiabilidad y disponibilidad. Cuanto mayor es la calidad y el nivel de redundancia de este sistema,menor será su vulnerabilidad a fallas.
GRUPOS GENERADORES – Cuando es interrumpido el suministro de energía por parte de los concesionarios, los generadores entran en acción para auxiliar a los circuitos críticos y climatización. Alimentados por biocombustible, diésel o gas, los generadores también proveen energía al sistema de climatización y los UPS. Los grupos generadores son proyectados para entregar el menor PUE posible, lo que brinda ahorro de energía al Data Center y menores costos operativos.
UPS – Los UPS (Uninterruptible Power Supply),mantienen la energía del Data Center sin interrupción hasta la entrada de los generadores. Estos equipos pueden ser instalados solamente para las cargas críticas o también para el sistema de climatización. Proyectados para atender el menor PUE de proyecto posible, los UPS pueden ser convencionales, modulares o dinámicos (directamente acoplados a los generadores, dispensando el uso de baterías).
Como los servidores y otros equipos de TI disipan mucho calor en el ambiente, los Data Centers necesitan de una climatización técnica, especial, de precisión, que mantenga la temperatura y humedad internas en niveles constantes y que garantice la integridad de equipos y datos.Como el concepto 3R (Room Cooling, Row Cooling y Rack Cooling) y el Free Cooling, en sistemas por gas o agua.
Investigaciones recientes indican que la mayoría de las empresas considera fundamental que el Data Center tenga posibilidad de tener su infraestructura actualizada en el mismo ritmo de la actualización de TI.

jueves, 23 de enero de 2014

¿Conoces las situaciones que conllevan a la falla de tu #DataCenter??

Las empresas dependen cada vez más de sus Data Centers. Ellos son los que controlan casi todo en las diferentes áreas operativas
ya que por ellos transitan los datos que posibilitan la continuidad de los negocios y de la prestación de servicios. Con la evolución
tecnológica, el Data Center, cada día se hace más complejo exigiendo soluciones integradas y confiables de infraestructura
para garantizar la continuidad de las operaciones.
Esto porque, en algunas situaciones, la falla cobra un alto precio.Tratándose de Data Centers, una falla puede generar parálisis en
los servicios, grandes perjuicios o hasta costar la sobrevivencia de una empresa. El costo de hacerse una inversión en seguridad
y alta disponibilidad seguramente es menor que el perjuicio proveniente de una falla grave causada por amenaza física o problemas relacionados a la infraestructura.
Riesgos de fallas
Un Data Center está expuesto a riesgos que pueden ser referentes a la infraestructura o causados por amenazas físicas.
Riesgos de infraestructura
Las fallas de infraestructura pueden ser relacionadas a problemas eléctricos, de climatización o conectividad.
Riesgos físicos
Las amenazas físicas abarcan desde incendios de grandes proporciones hasta un simple vaciamiento de agua en el Data Center.
Calor, humo y gases corrosivos deben ser evitados, pues dañan hardware y datos.

miércoles, 22 de enero de 2014

¿SABÍAS QUE HAY CAPACIDAD DISPONIBLE DE LA INFRAESTRUCTURA TI QUE NO SE UTILIZA???

Esta aparentemente sencilla pregunta tiende a confundir hasta a las organizaciones más enfocadas en TI. Los centros de datos crecen y evolucionan con el pasar del tiempo, al agregar servidores, potencia y aires acondicionados necesarios para respaldarlos; todas esas adiciones consumen valioso espacio. Las instalaciones podrían estar virtualizadas; una práctica que puede aumentar la eficiencia pero que al mismo tiempo complica la pregunta de la capacidad. En algún momento el tratar de descubrir cuánto puede aguantar la infraestructura existente se vuelve más difícil de lo que debería ser. Las tecnologías de administración de la infraestructura del centro de datos (DCIM) permiten a los gerentes de centros de datos entender cuáles sistemas de la infraestructura están en sus instalaciones, dónde están y cuáles aplicaciones respaldan esos sistemas. Ese nivel de visibilidad –entender dónde están las aplicaciones de varios niveles de criticidad y cómo reciben potencia y cómo se enfrían– desmitifica la capa física del centro de datos y permite a los gerentes descubrir la capacidad escondida dentro de sus instalaciones existentes.
¿Cuánta capacidad se necesita y cuándo?
Los enfoques tradicionales de la escalabilidad del centro de datos se pueden describir mejor como lineales: el negocio está creciendo, las demandas de TI aumentan con él; por esta razón va a ser necesario que el centro de datos respalde más aplicaciones en el futuro de las que respalda ahora. Así es como se termina con centros de datos con recursos excesivos
Estos cumplen el requisito de disponibilidad, pero la inversión inicial de capital fue más alta de lo que hubiera sido para unas instalaciones mucho menos eficientes. La organización termina pagando más al principio y en la parte operativa, y eso se da al asumir que las tecnologías se mantienen viables cuando el negocio se extiende a todo ese espacio extra 5 o 10 años después. Si suena a una locura, eso es. Pero era una práctica común hace tan poco como 10 años.
Las tecnologías de hoy permiten un enfoque más flexible del crecimiento y la escalabilidad, lo cual le permite a los negocios invertir más prudentemente y administrar la necesidad de más capacidad, o menos, conforme aparece.
Tier de la Infraestructura del Centro de Datos
CENTRO DE DATOS BÁSICO
FallosTrayecto único para la distribución de la potencia y de la refrigeración sin componentes redundantes. Podría o no tener un UPS, piso elevado o generador.Su disponibilidad Respaldada es de 99,671%.
Componentes Redundantes
Trayecto único para la distribución de la potencia y de la refrigeración con componentes redundantes. Tendrá un piso elevado, UPS y generador pero el diseño de la capacidad es N+1 con un trayecto de distribución con un solo cable.Su disponibilidad Respaldada es de 99,741%.
Puede Recibir MantenimientoSimultáneamente
Varios trayectos de distribución activos de la potencia y de la refrigeración. Tiene componentes redundantes y puede recibir mantenimiento de manera simultánea. Debe existir la capacidad y distribución suficiente para llevar la carga simultáneamente por un trayecto al mismo tiempo que se realiza mantenimiento en otro trayecto. Su Disponibilidad Respaldada es de 99,982%
Tolerante a FallosTrayecto
Proporciona capacidad de la infraestructura para permitir cualquier actividad planeada sin la interrupción de la carga crítica. El diseño de la infraestructura puede aguantar al menos un evento o fallo no planeado de los peores sin impactar la carga crítica. Su Disponibilidad Respaldada es de 99,995%

martes, 21 de enero de 2014

¿Una infraestructura de TI que se adapta a los negocios???? @EmersonNP_CALA

El Centro de Datos se ha llenado con el doble o el triple de reservas necesarias en un intento por planear el crecimiento. Las organizaciones han gastado de manera excesiva para construir instalaciones que podrían ser capaces de sustentar las potenciales necesidades de TI, las cuales podrían surgir en algún momento de un futuro incierto. Hace tan poco tiempo como 10 años, antes de que se aceptara ampliamente la virtualización, no era inusual ver 4 watts de capacidad de UPS por cada watt de carga de TI. Para ser justos, hace 10 años esta podría haber sido la única forma garantizada de asegurar que la inversión en TI permitiera ajustarse a los aumentos en la capacidad necesaria, aún si esa inversión sumaba pagos excesivos.
Aunque se mantienen algunas limitaciones en la infraestructura física: suministro eléctrico, aire acondicionado y espacio. Ahora, en vez de chocar directamente con los límites de la infraestructura física, los gerentes de centros de datos y los directores de tecnologías de la información pueden medir sus cargas y su capacidad con exactitud, e implementar técnicas y tecnologías para maximizar o agregar capacidad sin realizar la gran inversión de capital que conlleva un centro de datos nuevo; o estar preparados con la suficiente información para construir unas nuevas instalaciones seguros de que es la decisión correcta.
Conocer el informe de exploración
La fórmula para que cualquier decisión en los centros de datos esté bien definida constituye balancear el capital y los gastos operativos tan eficientemente como sea posible sin poner en peligro la disponibilidad de las aplicaciones críticas. En palabras sencillas, minimice las inversiones de capital a menos que la inversión se pueda recuperar con una reducción de los gastos
operativos. La recuperación podría darse en cuestión de cualquier cantidad de días. Por ejemplo, podría
pasar al aumentar la capacidad y, a su vez, el volumen de los negocios y las ganancias; o al aumentar la eficiencia energética y reducir los costos operativos relacionados con el consumo energético; o al reducir o eliminar el mantenimiento y servicio continuos. En cada caso, todo se reduce a un análisis de costos contra beneficios.
Asegurar la disponibilidad de las transacciones no es negociable, pero ¿qué pasa con algunas funciones internas de TI o de los sistemas de respaldo? Si algunas aplicaciones son menos críticas, ¿podrían subcontratarse en una coubicación o albergarse en la nube? Si es así, eso libera capacidad dentro del centro de datos.

lunes, 20 de enero de 2014

TIC verde: parte integrante de los nuevos data centers

Los beneficios de la virtualización,innovaciones como computación de alta densidad (servidores blade, por ejemplo), permiten la optimización de espacio físico en los data centers. Sin embargo, el funcionamiento de máquinas de alta densidad en ambientes tradicionales tiene enorme impacto en el consumo energético y climatización.Este hecho ilustra la complejidad creciente y la interrelación cada vez mayor del ambiente físico con la infraestructura de TIC de los data centers.
Ante los grandes consumidores de la energía eléctrica crecen las iniciativas de TIC verde dentro de los proyectos, la unión Europea estima que en el Reino Unido los data centers responden por el 3% del consumo energético del país.
Además de la preocupación de las empresas con iniciativas de sustentabilidad, hay grandes incentivos para que los data centers reduzcan su consumo energético. 
Según estimación de la empresa británica Analysys Mason, el impacto en los costos operacionales puede llegar al 30% en algunos casos, como el de co-location. La mejor manera de atacar ese problema de ineficiencia energética es un abordaje holístico, considerando el data center como un todo, empezando por la medición de flujo de consumo de energía.
Entre las diversas ideas para aumentar la eficiencia energética podemos citar:
  •  Mantenimiento constante de los equipos de alimentación y distribución de energía.
  • Acciones para mejorar la eficiencia del sistema de refrigeración.
  • Generación de energía en el propio lugar, como muestran algunos ejemplos internacionales.
  • Cambio eventual de hardware por modelos más eficientes.
RIESGOS
En toda actualización de modelo tecnológico, la totalidad de los riesgos debe ser considerada. Sin embargo, el escenario actual de baja productividad de los data centers y la creciente demanda de recursos indican la real necesidad de implementaciones de
nuevos modelos optimizados.
El análisis de nuevas tendencias y ciclos tecnológicos sugiere un camino claro en dirección a un nuevo modelo de abastecimiento, control y gerencia de data centers. Quedar afuera de ese movimiento puede resultar una pérdida de ventaja competitiva y demora
en la implementación de nuevas estrategias de negocio.
Desde el punto de vista de la continuidad de los negocios, el modelo legacy torna abusivos los costos de mantener arquitecturas de alta disponibilidad y/o sitios de contingencia. Nuevas tecnologías de optimización permiten la reducción significativa del costo de
infraestructuras de alta disponibilidad. En ese caso, es mayor el riesgo de permanecer con un modelo legacy que el riesgo de evolucionar la infraestructura del data center.
Teniendo en cuenta la gran dependencia de los negocios en relación a todo lo que está instalado en los data centers, es primordial en proyectos de evolución y virtualización la elección correcta de tecnologías y de un socio que pueda garantizar la calidad en la
implementación e integración de todas las partes (servidores, red y almacenamiento, entre otros). Entre los principales problemas verificados en proyectos podemos destacar:
  • Proyectos incompletos: algunos proyectos no son concluidos, en virtud del análisis insuficiente de todo el ambiente. La implementación de la virtualización, por ejemplo, causa impacto en la red y en el ambiente de almacenamiento. Muchas veces esos impactos no son analizados previamente, haciendo que los proyectos no sean concluidos o que sólo se realicen implementaciones básicas.
  • Baja productividad: en algunos casos, una cantidad mayor de servidores y servicios podrían ser consolidados o virtualizados; pero, debido a la falta de planeamiento correcto, el nivel ideal de optimización no es alcanzado.
  • Mayor complejidad: En caso que sean implementadas sólo las características básicas, el nivel de complejidad de la administración de los ambientes puede aumentar. En el caso de la virtualización, por ejemplo, una implementación amplia puede reducir tareas de administración, facilitar nuevas implementaciones, reducir down time en ventanas de cambios, etc.

viernes, 17 de enero de 2014

Los Costos de Data Centers en América Latina justifican la adopción de nuevas estrategias!!!

De acuerdo a lo publicado mundialmente sobre Data Centers todo es enfocado al creciente aumento de costos operacionales y de energía eléctrica basado en mercados maduros como USA, Europa y Asia.
Si nos adentramos en un escenario Global de América Latina estudios indican que por cada dólar invertido en data centers, 70 centavos se destinan a la administración y a los costos operacionales del ambiente.
  • Nivel de virtualización promedio por lo menos tres veces mayor que en América Latina, según uno de los mayores proveedores mundiales
  • Altísima automatización
Arquitecturas más estandarizadas A pesar de los costos de mano de obra más bajos, algunas características de los data centers nacionales causan impactos signi cativos en los costos operacionales:
  • Baja virtualización
  • Falta de inversión en automatización
  • Arquitecturas de fabricantes diversos
"El escenario de costos en América Latina justifica la adopción de nuevas estrategias para la optimización de los
data centers".
Podemos concluir que el escenario de costos en América Latina justifica la adopción de nuevas estrategias para la optimización de los data centers. El peso del costo energético exige metas más agresivas, que ocurrirán a medida que las áreas de TIC tomen
mayor responsabilidad por los costos de energía eléctrica.
Así como en el resto del mundo, entre 2000 y 2002, América Latina vivió una onda de construcción de data centers basados en modelos que no soportan arquitecturas de alta densidad de procesamiento, lo que también sugiere la necesidad de construcción de
nuevos espacios físicos para las nuevas arquitecturas.

jueves, 16 de enero de 2014

Virtualización y Cloud Computing igual a alta Productividad!!!!

Virtualización y cloud computing en el 2012 son las palabras del momento en el mercado de data centers. Aunque encierran conceptos y aplicaciones diferentes en el mercado, –la primera como tecnología y la segunda como modelo de negocio– prometen tratar el problema de baja productividad y atender la creciente demanda de infraestructura.
El concepto de cloud computing promete materializar la visión de transformar toda la infraestructura de TIC en servicios. El modelo tiene el potencial de transformar la industria, creando nuevos paradigmas tales como:
  • La disponibilidad (o ilusión) de recursos infinitos, eliminando la necesidad de planeamiento a largo plazo.
  • La eliminación del planeamiento para el pico nuevas compañías o productos podrán iniciar sus operaciones con infraestructuras mínimas y adicionar nuevos recursos de forma rápida, de acuerdo a sus necesidades.
  • La posibilidad de pagar por uso de procesamiento por un intervalo de tiempo (horas o días) de acuerdo a necesidades específicas del negocio.Para que ese modelo se haga concreto, todavía serán necesarios nuevos ciclos tecnológicos que puedan remover obstáculos, como: disponibilidad, portabilidad de aplicaciones y escalabilidad de toda la infraestructura.
La virtualización ya es un concepto con varios casos de implementación y, en mayor o menor medida, gran parte de las empresas ya utiliza algún tipo de servicio virtualizado en sus data centers. En América Latina, según estimación del sector, el nivel de virtualización aún es bajo comparado con los mercados más maduros: hoy, menos del 10% del parque regional de servidores es virtualizado,
lo que indica una fuerte tendencia de nuevas implementaciones.
Puede traer beneficios mayores que la simple reducción de costos por la disminución de la necesidad de compra de nuevo hardware. Entre los beneficios adicionales, podemos citar la reducción de la complejidad y el aumento de los recursos compartidos y del nivel de disponibilidad de los sistemas. Nuevos recursos tecnológicos disponibles ofrecen la posibilidad de virtualización en cualquier tipo de ambiente, para sistemas críticos o no críticos, ofreciendo mayor nivel de confiabilidad contra fallas (resiliencia). Además de la virtualización de servidores, pueden ser virtualizados desktops, redes y almacenamiento.

miércoles, 15 de enero de 2014

¿Conoces las 3 estrategias para una infraestructura más escalable???

La capacidad disponible de TI, su criticidad y entendimiento de la carga ayuda a los negocios a desarrollar una estrategia para crear una infraestructura escalable de TI.
Hay tres estrategias clave para crear una infraestructura más escalable:
  1. Usar tecnologías avanzadas o software para liberar la capacidad existente y ampliarla o disminuirla.
La tecnología ahora permite la escalabilidad de la infraestructura de hora en hora. Las aplicaciones que experimentan un uso pico durante las horas laborales pero casi se apagan totalmente durante la noche no requieren el mismo nivel de respaldo de la potencia y del aire acondicionado las 24 horas. Las infraestructuras inteligentes se pueden ampliar o reducir según es necesario: inactivar el UPS, por ejemplo, cuando no se necesita y reactivarlo durante las horas pico. Las soluciones de aire acondicionado avanzadas reaccionan en tiempo real a los cambios de la temperatura, lo cual también permite ampliar o reducir la actividad según sea necesario.
Llevar ese control al siguiente nivel significa que aquellos sistemas de las infraestructuras fuera de ciclo se pueden usar para respaldar otras aplicaciones que podrían estar alcanzando un pico al mismo tiempo. Entender estos patrones y optimizar los índices de utilización mejora dramáticamente la eficiencia energética en todas las instalaciones y ayuda a evitar tener centros de datos sobre dimensionados. Las instalaciones que experimentan fluctuaciones regulares de carga pero con un crecimiento modesto podrían construir una infraestructura eléctrica y de enfriamiento con estos controles avanzados.Escalar con bloques de construcción.
   2. Escalar con bloques de construcción
La introducción de los sistemas de potencia y de aires acondicionados modulares, integrados y auto contenidos ha tenido un impacto significativo en el centro de datos en los últimos 10 años, tanto como cualquier avance en los servidores. Estas tecnologías más pequeñas y ágiles (incluyen todo desde los UPS y aires acondicionados con base en filas hasta grandes contenedores con infraestructuras completas) facilitan la inversión gradual en la capacidad de la infraestructura. Las organizaciones en crecimiento pueden agregar una fila de racks junto con la potencia y aire acondicionado para respaldarlas con poca o ninguna interrupción de la infraestructura existente o agregar el equivalente de un centro de datos pequeño e individual con una solución en contenedores. Las únicas restricciones son espacio y presupuesto. Por supuesto que esas restricciones son reales. A largo plazo, el gasto de capital relacionado con estas compras; el sacrificio en términos de los gastos operativos (varios sistemas no son tan eficientes como un solo sistema grande y requieren más servicios); y el espacio que ocupan con el tiempo proporcionan verdaderos beneficios en ganancias graduales.
    3.Simplemente, ¡hágalo!
Algunas veces todos los arreglos a corto y mediano plazo retrasan lo inevitable. Si un centro de datos:
a) alcanzó los límites de su capacidad existente;
b) agotó sus opciones para liberar capacidad;
c) se quedó sin espacio físico para crecer, y d) descartó la sub contratación como una opción, entonces llegó el momento para construir nuevas instalaciones ¿Y las buenas noticias? El centro de datos se puede construir con la escalabilidad en mente y con acceso a las tecnologías para la infraestructura que permiten un eficiente e inteligente crecimiento de TI que cumple las necesidades actuales y futuras del negocio.
En cualquier camino que escoja es importante medir los resultados para respaldar decisiones e inversiones futuras.

martes, 14 de enero de 2014

La Secretaría de Economía Duplica la meta en las TI!!!!!

Ciudad de México.- En 5 años, MéxicoFIRST ha certificado a 61 mil 320 profesionistas en tecnologías de la información y comunicaciones (TIC), más del doble de la meta que se había propuesto para 2015.

La iniciativa de la Secretaria de Economía, Prosoft y la Cámara de la Industria Eléctrica y de las Tecnologías de la Información (Canieti), iniciada en 2008, contemplaba emitir 30 mil certificados, pero tan sólo en 2013 se dieron alrededor de 10 mil.

"Sobrecumplir es muy bueno porque deja un buen antecedente del país", indicó a REFORMA Juan Saldivar, director de promoción de capital humano de México FIRST.

Dos años antes de cumplirse el plazo, con una meta más que superada, la organización proyecta continuar con su esfuerzo para fortalecer aún más la preparación de los profesionistas mexicanos.

En el 2013, MéxicoFIRST aportó más de 200 millones de pesos en forma de becas para hacer más accesible el costo de los programas de capacitaciones técnicas y administrativas que requiere el sector de la TIC.

El directivo aseguró que el crecimiento y evolución de la industria hace que se requieran cada vez más certificaciones, por lo que seguirán trabajando para preparar a más profesionales de las tecnologías de la información.

lunes, 13 de enero de 2014

¿Sabías que los apagones están relacionados con la climatización??

Las vulnerabilidades en la infraestructura eléctrica y las de la climatización fueron responsables de una porción notable de las causas principales que citarón los participantes de una encuesta donde el 15% de todas las causas principales se atribuyeron a problemas con la temperatura, entre estos la fuga de agua y fallos en el equipo IT relacionados con la densidad del calor y la capacidad de enfriamiento. Los costos asociados con estos fallos fue de $489,000. 00 por incidente.
Los problemas de climatización también fueron la causa primordial de los fallos de equipo IT. De hecho, aunque  estos  fallos del equipo solo fueron responsables del 5% de las causas principales citadas por los participantes de la encuesta, su costo fué más de  $ 750, 000. 
En muchos casos, un solo fallo puede causar una reacción en cadena de fallos del equipo IT que requieren extensos esfuerzos de detección y recuperación para identificar la causa principal además de reemplazar el equipo IT dañado. Por ejemplo, una fuga de agua fría en el sistema en filas de enfriamiento en el centro de datos puede causar la falla del sensitivo equipo IT. Además de identificar y reparar el problema de enfriamiento que causó el apagón, los servidores y otro equipo IT dañado deberá ser reemplazado. Es de suma importancia subrayar que el equipo de enfriamiento NO necesita fallar para causar una falla del equipo IT. En cambio, estos fallos, típicamente causados por altas densidades de calor y “puntos calientes” dentro del rack, frecuentemente ocurren como resultado de una infraestructura inadecuada de enfriamiento más que debido a una falla del equipo de climatización. Esto refuerza aún más la importancia de una optimizada infraestructura de enfriamiento. Mientras que algunos apagones relacionados con la infraestructura de enfriamiento del centro de datos pueden estar más aislados que los fallos relacionados con la electricidad, que contribuyen tanto a apagones parciales como totales del centro de datos, una infraestructura integral de enfriamiento sigue siendo  fundamental para minimizar los periodos de inactividad y sus costos asociados. Esto es particularmente verdad al tomar en cuenta las  conexiones entre la infraestructura de enfriamiento del centro de datos y la viabilidad del equipo crítico IT, donde los sistemas de enfriamiento no deben fallar para causar fallas catastróficas y dañar equipo sensible y costoso, fundamental para minimizar los periodos de inactividad y sus costos asociados. Donde los sistemas de enfriamiento no deben fallar para causar fallas catastróficas y dañar equipo sensible y costoso.
Afortunadamente, existe una serie de  prácticas e inversiones que pueden hacerse en la infraestructura de enfriamiento del centro de datos para minimizar el riesgo de fallos catastróficos del equipo y los periodos de inactividad asociados. Muchas de estas
buenas prácticas se exploran en el artículo técnico “Addressing the Leading Root Causes of Downtime”, que incluyen:
  • Minimizar el riesgo de inundación al usar soluciones con base en refrigerantes en vez de soluciones a base de agua.
  • Eliminar los puntos calientes y altas densidades de calor al traer el enfriamiento de precisión más cerca de la carga con soluciones de enfriamiento de precisión con base en filas.
  • Instalar soluciones consolidadas de supervisión y administración que funcionan con supervisión remota.
  • Fortalecer las inversiones en equipo de enfriamiento e IT con visitas de servicio y mantenimiento preventivo regular.
Mientras estas recomendaciones incorporan muchas de las buenas prácticas para maximizar la disponibilidad, efectividad y eficiencia de la infraestructura de enfriamiento del centro de datos, algunos vendedores, entre estos Emerson Network Power, ahora le ofrecen a los gerentes de las instalaciones la posibilidad de implementar una solución optimizada e integrada para un desempeño eficiente
de alta disponibilidad de electricidad y de enfriamiento. Estas soluciones ofrecen todas las mejores prácticas de diseño mencionadas
anteriormente, algunas con el beneficio adicional del rápido despliegue para la expansión del centro de datos o recuperación después de un desastre.

viernes, 10 de enero de 2014

Conoce los 4 puntos principales para reducir los costos en la caída del centro de datos!!!!

Las costosas caídas del centro de datos se pueden evitar o acortarse, pero muchos centros de datos no toman las precauciones necesarias.
Las causas principales más costosas son :
  • Fallo de Equipo TI
  • Ataques Ciberneticos
  • Fallo del sistema UPS
  • Fugas de agua
  • Fallo del generador
  • Clima inclemente
  • Error Humano
Por lo que el Plan para reducir estos costos se define en cuatro puntos siguientes:
  1. Recursos y Planeamiento Apropiado: Solo un 38% de los encuestados indicaron que tienen amplios recursos para recuperar el funcionamiento de su centro de datos si se da una caída. Se debe asegurar de que existen los recursos y acciones apropiadas para recuperar el centro de datos en caso de una caída.
  2. Buenas Prácticas: Solo un 36%  de los encuestados cree utilizar las buenas practicas del diseño y redundancia para maximizar la disponibilidad del centro de datos. Cabe destacar que se debe realizar un profundo estudio de implementación de las buenas prácticas para evitar caídas.
  3. Implementación DCIM : Los participantes que tenían DCIM presentaron caídas de 43 minutos en promedio, a diferencia de las caídas de 107 minutos de quienes no contaban con DCIM en su centro de datos para reducir la duración de las caídas.
  4. Invertir en equipos:Invertir en equipo nuevo  o actualizado fué la forma principal que indicaron los participantes para evitar caídas y los costos asociados en el futuro.
Los costos de las caídas van en aumento. Todos los costos totales promedio de las consecuencias de las caídas aumentaron en los últimos 3 años un 41% por minuto.

jueves, 9 de enero de 2014

Disponibilidad, Eficiencia y Escalabilidad reducen la caída de los #DataCenter!!!!

Las caídas de los centros de datos son costosas para los proveedores de coubicaciones. Y puede ocasionar sanciones a los clientes al no cumplir los contratos de nivel de servicio, en la pérdida de reputación y de los negocios. Con esto en mente, los operadores de coubicaciones deben implementar las buenas prácticas de disponibilidad, lo cual incluye una supervisión cuidadosa de los sistemas de suministro ininterrumpido de energía (UPS). Para evaluar los sistemas de UPS, los operarios de coubicaciones deberían hacerse estas preguntas:
  • ¿El UPS protege la carga o a sí mismo? El UPS debe poder soportar eventos sin hacer transferencias al bypass.
  • ¿El UPS sacrifica una alta disponibilidad por obtener una alta eficiencia? Para evitar esto, el UPS debe tener modernos modos de optimización energética y eficiencia.
  • ¿Los UPS ya instalados frustran al personal? Existen unidades de UPS bien diseñadas y amigables con el usuario en el mercado hoy.
 Eficiencia 
Las coubicaciones se pueden enfocar más en la eficiencia operativa del entorno del centro de datos. El realizar sencillas evaluaciones de la eficiencia ayuda a identificar dónde se desperdicia. Una vez identificado el desperdicio, hay una variedad de tecnologías y enfoques que se pueden implementar para mejorar la eficiencia y reducir los gastos operativos. Estos incluyen seguir las buenas prácticas de eficiencia, como la economización y utilizar un enfoque de gerenciamiento térmico que ofrece soluciones holísticas para controlar el entorno de centros de datos.
Un enfoque de gerenciamiento térmico subraya la importancia de usar controles inteligentes en conjunto con la contención de pasillos. Los controles inteligentes por sí solo aseguran una combinación óptima de la capacidad del compresor/chiller y el flujo de aire con base en el monitoreo de la temperatura en los servidores. Esta optimización permitiría mantener los puntos de referencia de la temperatura de entrada entre la temperatura típica de las especificaciones técnicas (75 grados F / 24 grados C) y el límite recomendado por ASHRAE (80 grados F / 27 grados C) para los centros de datos clase A1-A4; y al asumir que todo el hardware de TI existente cumple los estándares. Cuando también la contención de pasillos está implementada, un aumento en la temperatura del aire de entrada de 10 grados F / 5 grados C mejorará la eficiencia energética en un 20 por ciento. Además, los controles inteligentes permiten que las unidades de enfriamiento funcionen con una carga reducida, lo cual les permite trabajar en conjunto como un sistema gracias al trabajo en equipo. Cuando existe la contención de pasillos, esta reducción en la carga aumenta la eficiencia operativa total al agregar un 15 por ciento adicional en promedio.
Escalabilidad 
El equipo escalable de la infraestructura hace que implementar un centro de datos sea más rápido y reduce costos. La modularidad permite la escalabilidad con bajos riesgos. “Hoy, hay edificios modulares, sistemas de enfriamiento modulares, sistemas de potencia modulares, sistemas de racks y filas modulares – usted puede escalar la sala, los pasillos y el equipo”, expresó Panfil.
Muchos sistemas modulares diseñados previamente, y ofrecen módulos de configuración estándar creados para trabajar en conjunto. Se puede replicar la implementación de sistemas modulares y componentes , lo cual facilita aún más la escalabilidad. La modularidad también reduce costos debido a que los sistemas modulares se pueden implementar a tiempo, las coubicaciones no necesitan tener el tamaño para una capacidad máxima al momento del arranque.
Para que las coubicaciones sean factibles para los dueños de centros de datos, estas deben cumplir todos los requisitos de un centro de datos interno con un costo inferior y una mayor velocidad al mismo tiempo que permiten una mejor confiabilidad. La seguridad de TI y física, los costos energéticos, la escalabilidad – se incluye la facilidad y alta velocidad de implementación del equipo – y una mejorara visibilidad son críticos para una conversión exitosa a coubicación.
 El mejorar la disponibilidad, eficiencia y escalabilidad llevará a un crecimiento del negocio de las coubicaciones.

miércoles, 8 de enero de 2014

Emerson lanza la nueva edición Express de la plataforma Trellis!!!!

Emerson Network Power, y un líder global en maximizar la disponibilidad, capacidad y eficiencia de la infraestructura crítica, lanzó  la edición Express de la plataforma Trellis, la cual ofrece los beneficios de la administración de la infraestructura del centro de datos  en un modelo de entrega simplificado y coordinado. La plataforma Trellis, la solución de DCIM  brinda una visualización integral en tiempo real de las instalaciones y recursos de TI del centro de datos, y proporciona la información necesaria para mejorar la eficiencia operativa general y planear para el futuro. La edición Express de la plataforma Trellis ofrece las mismas capacidades en un paquete de llaves en mano, lo cual la convierte en una forma rentable, eficiente y fácil para que los clientes comiencen a usar la plataforma Trellis. También ofrece una base flexible y escalable para seguir construyendo conforme las necesidades del negocio cambian.
La edición Express de la plataforma Trellis es un paquete de las funciones existentes  previamente configurada con base en los requisitos del cliente. Las ventajas clave de esta edición corresponden a un proceso simplificado de compra y un paquete de funciones, lo cual facilita y aumenta la velocidad de implementación.  Es flexible y escalable para adaptarse al crecimiento de las necesidades del centro de datos. En los negocios pequeños y medianos, la edición Express de la plataforma Trellis soluciona la necesidad de ordenar e implementar rápidamente y fácilmente una solución de DCIM con el tamaño apropiado para su organización. Para los centros de datos grandes que analizan adquirir una solución de DCIM, se diseño para satisfacer las necesidades inmediatas al mismo tiempo que reduce la complejidad y el tiempo para implementarla. Al simplificar el proceso de compra e instalación, muchos clientes que están esperando comenzar con la compra e implementación de una solución DCIM pueden empezar con la edición Express de la plataforma Trellis.
“Implementar la solución apropiada de DCIM es un proceso crítico que puede tener un impacto estratégico y a largo plazo en la organización  ”El anuncio de Emerson de una solución previamente empacada y de simple implementación con la edición Express de la plataforma Trellis directamente satisface las necesidades de los usuarios finales con respecto a una solución de DCIM fácil de entender y de implementar. Con la edición Express de la plataforma Trellis, no hay sorpresas o costos escondidos, lo cual hace que la solución de DCIM sea más fácil de vender y de comprar. Al eliminar la complejidad, Emerson coordina el camino para que las organizaciones de TI se beneficien de una visibilidad, una eficiencia y una capacidad de planeamiento mejoradas.
La edición Express de la plataforma Trellis incluye dos ofertas. Primero, la edición Express de la plataforma Trellis, la cual es un paquete del actual Trellis Site Manager, eAvocent® Universal Management Gateway (Portal de acceso para la administración universal) y los servicios profesionales para administrar la instalación y la capacitación. Este paquete tiene dos opciones, una para rastrear y monitorear hasta 10 dispositivos colocados en el piso y uno para rastrear y monitorear hasta 25 de estos dispositivos. Segundo, la edición Express de la plataforma Trellis reúne el actual Trellis Inventory Manager con los servicios profesionales y podría incluir un servidor de alojamiento.
“Al escuchar a nuestros clientes, vimos que había una necesidad de desarrollar una forma más sencilla para que pudieran comenzar sus proyectos de DCIM”, afirmó Steve Hassell, presidente del negocio de Soluciones para Centros de Datos de Emerson Network Power. “La oferta de la edición Express de la plataforma Trellis permite a las organizaciones maximizar la eficiencia, minimizar las caídas del centro de datos y alcanzar un planeamiento preciso antes de lo que se imaginaban”.
Una solución de DCIM en un paquete de llaves en mano.