A necessidade da rápida expansão da infraestrutura faz
do cloud computing alternativa viável com redução de custos e de
complexidade.
Na semana passada, conduzi uma conferência sobre cloud computing
que me levou muito além do que costumo falar habitualmente. O evento
DatacenterDynamics concentrou-se na parte física das instalações do Data
Center e das infraestruturas de computação. Eu falei sobre "TI como o
Provedor de New Service Cloud" e concluí que toda a conferência foi uma
experiência esclarecedora.
Na maioria das conferências sobre computação em nuvem, o mais próximo
que se chega do hardware são os fornecedores de servidores; nessa
conferência houve uma abundância de empresas de UPS (sigla em inglês
para fonte de alimentação ininterrupta de energia), fabricantes de
cabos, instaladores de ar-condicionado, e até mesmo empresas de
construção.
E deixe-me dizer: os participantes tinham temas muito específicos em
suas mentes. Por exemplo, a sessão antes da minha era "ASHRAE (Sociedade
Americana de Aquecimento, Refrigeração e Ar-condicionado): estão-se
expandindo os limites da temperatura e da umidade - mais uma vez".
Estava absolutamente lotada. Eu nunca tinha ouvido abordagens sobre
temperatura e data center em uma conferência de computação em nuvem. E,
ao contrário da maioria das conferências, a computação em nuvem não foi o
tema central nesse evento.
Apenas duas sessões, além minha, tinham "nuvem" em seu título, uma do
CTO da Zynga, Allan Leinwand, e outra de um representante da Accenture,
que discutiu uma pesquisa da empresa junto a gerentes de TI.
No entanto, apesar de sua ausência nas sessões, a computação em nuvem
pairou como um espectro sobre todas as palestras, em boa parte moldada
por sua natureza mutante e principalmente por sua escala de crescimento
explosivo.
A sessão de Leinwand foi fascinante, especialmente quando ele esboçou
como sua empresa, que desenvolveu o FarmVille e outros jogos online,
tem construído uma nuvem interna para complementar o uso de Amazon Web
Services (AWS). Essencialmente, Zynga lança jogos em um ambiente de
nuvem pública, e aqueles que realmente adquirem (really take hold) são
transferidos de volta para nuvem privada da empresa.
Como você pode imaginar, o crescimento dos jogos da Zynga pode ser
explosivo, portanto a capacidade de fornecer, rapidamente, mais
infraestrutura é crucial. Leinwand descreveu como Zynga pode tomar mil
servidores em sua plataforma e adicioná-los ao seu conjunto de recursos
de computação em nuvem, em menos de 24 horas.
Sean Peterson, da Accenture, fez uma recomendação muito convincente
sobre custo que eu nunca tinha considerado. Sua observação geral é que a
atribuição de custos - particularmente o estorno - é uma parte vital
aos ambientes de computação corporativos em nuvem para assegurar o uso
apropriado dos recursos de computação. Sem estorno não há mecanismo de
feedback para orientar o comportamento do usuário.
Sua recomendação foi que o estorno deve ser precedido por um período
de "showback", em que o uso de recursos, sem qualquer tentativa de
executar atribuição de custo, é concedido às organizações. Estas
normalmente não têm ideia de como calcular o o custo que suas aplicações
estão gerando. Começando com "showback", pode-se oferecer a
oportunidade de avaliar o uso antes da geração de uma fatura e pode
evitar algumas discussões acaloradas.
Recomenda-se sempre mecanismos de reembolso para os nossos clientes,
pois sentimos que a sinalização de preços é o mecanismo mais eficaz para
a gestão dos recursos disponíveis das organizações. Mas, daqui para
frente, é recomendável um período de showback para facilitar a
transição.
A eficiência energética foi uma assunto explícito, ou implícito, em
quase todas as apresentações do evento. Na minha palestra, descrevi como
a internet e as empresas de nuvem como Facebook, Amazon, Google,
Microsoft e Yahoo, estão empurrando seus pacotes em cima da eficiência
do data center. Outra apresentação falou sobre como se poderia construir
um data center eficiente em termos de consumo de energia.
Aconteceu de eu sentar ao lado de um homem na hora do almoço, que
trabalha para Mortenson, uma empresa de construção de grande porte que,
além de outros projetos, constrói data centers. Ele compartilhou comigo
algumas das práticas de sua empresa e forneceu uma visão real sobre o
como este tipo de construção está se tornando sofisticado. Sua empresa
utiliza um design virtual e software de construção para criar um desenho
em 3D de um data center que permite que os conflitos de design (por
exemplo, um duto que atravessa um cabeamento) para ser identificado
antes da construção.
Claramente, já estão muito longe os dias em que colocava alguns racks
no espaço não utilizado do escritório. Os data centers de hoje são
projetados para ambientes sofisticados com padrões muito elevados. Isto
coloca um problema para muitas empresas: o investimento de capital
necessário para construir algo para esse nível de sofisticação e
eficiência vai muito além do que a maioria pode pagar.
A ideia de que os data centers estão-se tornando um negócio para
organizações ricas foi reforçada pela observação do representante da
Mortenson, que declarou que sua empresa só constrói grandes data
centers. O mercado de projetos de 5 mil a 25 mil pés quadrados (465
metros quadrados a 2,322 mil metros quadrados) está completamente
esgotado, ele me disse.
O último painel do dia delineou a extensão daquilo que a internet e
empresas de nuvem oferecem para diminuir os custos de data center. Os
atuais, e antigos, gurus de data centers do Yahoo, do Facebook e do
Google descreveram suas experiências.
Um dos palestrante discutiu o uso de temperaturas mais elevadas em
ambientes de data center. Quando consultado sobre possíveis questões da
Administração de Segurança e Saúde Ocupacionais (OSHA, na sigla em
inglês) do Departamento de Trabalho dos EUA, ele disse que uma vez que
um conjunto de servidores está instalado, muito pouco contato humano
deve ser necessário e, se houver, pode ser limitado a dez minutos ou
menos. Na verdade, ele disse, se uma organização tem alguém interagindo
com o hardware, muitas vezes, é um sinal de que está fazendo algo
errado.
O que eu levei para casa dessa conferência é a conclusão de que a TI
está se tornando um campo de especialistas. O mediano para bom não é
mais suficiente em todos os aspectos da área, desde operações de data
center para suportar infraestrutura até o desenvolvimento de aplicações e
a sua entrega.
Com orçamentos limitados e a disponibilidade comercial de
fornecedores, com ofertas especializadas com base na grandes
investimentos e melhores práticas, as organizações de TI têm de
descobrir onde eles podem entregar algo realmente diferenciado. A
estratégia certa é identificar como a TI pode agregar valor em áreas
específicas e concentrar-se lá, enquanto alavanca recursos externos para
outros aspectos da TI.
*Bernard Golden é CEO da consultoria HyperStratus, especializada em
virtualização, computação em nuvem e assuntos relacionados. Ele também é
o autor de "Virtualization for Dummies", um best-seller sobre a
virtualização de dados.
Fonte:
http://computerworld.uol.com.br/tecnologia/2011/07/09/opiniao-data-centers-em-nuvens-amigaveis-e-a-saida/
|