Vote Nesse Site

Computação na nuvem: Ela veio para ficar

O cloud computing ganhou os corações e as mentes do mercado de Tecnologia da Informação. O que até bem pouco tempo era apenas um conceito, tornou-se uma realidade que vem direcionando fusões e aquisições entre os fornecedores e, do lado dos usuários, planos, testes e investimentos ao longo deste ano Mas afinal, por que o conceito de computação em nuvem ocupou tanto espaço?

Em uma análise do histórico do mercado de tecnologia, o diretor de novas tecnologias aplicadas da IBM, Cezar Taurion, explica a movimentação do mercado e, mais que isso, porque o cloud computing veio para ficar. “A computação evolui em movimentos pendulares, da mais completa centralização a total descentralização, e fazendo o caminho de volta quando os extremos são alcançados”, diz Taurion.

Ele lembra ainda que nos anos 60 e 70 o paradigma era a computação centralizada, com o predomínio dos mainframes. No inicio dos anos 80 veio o movimento do downsizing e a descentralização, com a proliferação de redes locais e servidores. “Parecia realmente uma grande ideia, até que nos descobrimos envolvidos por inúmeras ilhas tecnológicas, com custosas atividades de gerenciamento de redes e aplicações heterogêneas”.

Por conta deste último movimento, a maioria das organizações de médio a grande porte utiliza hoje centenas ou mesmo milhares de servidores, de diversas tecnologias e fabricantes. Existem máquinas Windows em suas diversas versões, inúmeros matizes de Unix (Solaris, AIX e HP-UX), um número cada vez maior de máquinas rodando Linux e mesmo outros ambientes operacionais como mainframes. Estudos têm mostrado que as maiorias das empresas que estão implementando aplicações corporativas, como ERP, as baseiam no mínimo em duas plataformas diferentes.

Taurion explica que este complexo e heterogêneo parque computacional é responsável por uma parcela significativa (pelo menos de 50%-60%) do orçamento de TI das empresas e infelizmente não é aproveitado em todo seu potencial. O cenário tecnológico para os próximos anos mostra que as empresas de médio a grande porte continuarão enfrentando grande complexidade e diversidade de ambientes, e todas estas plataformas deverão estar se comunicando umas com as outras.

“Em resumo, a maioria das empresas vai continuar operando com múltiplos ambientes e gerenciar com eficiência esta complexa infraestrutura é bastante complicado e caro”, afirma. Há ainda um complicador adicional: no ambiente de empresas cada vez mais interconectadas, a imprevisibilidade da demanda exige que os sistemas tenham condições de adaptar-se instantaneamente a flutuações significativas, o que é potencializado pelas novas aplicações da Internet, como Web 2.0.

Para o executivo, o cenário futuro, com o advento de tecnologias que permitam uma computação cada vez mais onipresente (dispositivos equipados com chips trocando informações em tempo real) indica um imenso volume de dados a serem manuseados e processados. “Um exemplo são os milhões e milhões de chips RFID (Radio Frequency ID), etiquetas eletrônicas embutidas em latas de cerveja ou pacotes de sucrilhos, que permitirão rastrear em tempo real todo o ciclo de negócios, da fabricação à residência do consumidor”, ressalta.

Com isso, o uso de software embarcado deve se acelerar nos próximos anos, com uso intensivo de tecnologia em alguns setores que são grandes desafios para a sociedade, como congestionamentos de trânsito nas grandes cidades, melhoria da eficiência das redes elétricas, conservação de água potável, distribuição de alimentos e serviços de saúde. “Temos, portanto, um imenso potencial para usar a tecnologia de forma extremamente positiva, criando provavelmente uma nova revolução industrial, que será baseada em software”.

De acordo com Taurion, hoje nossa civilização depende de software para funcionar e este é “conhecimento engarrafado” e a própria “encarnação” digital dos processos de negócio, já embarcado na maioria dos produtos usados hoje. Para ele, o mais natural é que se busque conectar esta “inteligência” dispersa pelos produtos ou “coisas”, com os sistemas de gerenciam processos de negócio, otimizando as infraestruturas físicas, sejam estas prédios, estradas, processos de logística e assim por diante.

“O conceito da Internet das coisas, que podemos considerar como o próximo passo da evolução no uso da Internet, tem o potencial de modificar profundamente nossa sociedade e a nossa economia”, diz. A Internet das coisas vai combinar a universalidade da Internet, hoje a principal infraestrutura de comunicação do planeta, com inteligência ou software embarcado em sensores e atuadores, modificando a maneira de como o mundo físico vai operar.

Por outro lado, tratar este imenso volume de novas informações em tempo real vai demandar uma imensa capacidade computacional impossível de ser prevista em suas flutuações de demanda. Claramente é necessário um novo paradigma computacional, que ajuste, sob demanda, a capacidade às demandas de carga de trabalho, ou o cloud computing.

“Por isso dispor de ambientes dinâmicos, auto-ajustáveis, de alta disponibilidade e escalabilidade e com custos de propriedade adequados torna-se o grande desafio dos gestores de tecnologia das organizações e governos. Portanto, estamos falando de cloud computing”, finaliza. 

Seja o primeiro a comentar!

Postar um comentário

  ©Cyber Gringo - Todos os direitos reservados.

Template by Dicas Blogger | Topo