↖️  Experimente a Novidade, ative o menu de navegação e tenha o conteúdo completo do Avis Ara

segunda-feira, 30 de novembro de 2015

Infraestrutura em cloud: vale a pena ter a minha?

Infraestrutura em cloud: vale a pena ter a minha?
Vale a pena a leitura.

Infraestrutura em cloud: vale a pena ter a minha?

Diante de um mercado que exige cada vez mais agilidade no processamento de informações e de um cenário econômico que demanda uma séria revisão nos orçamentos, uma tendência global tem repercutido no Brasil, a adoção de soluções de infraestrutura como serviço (IaaS) – um dos modelos de computação em nuvem – e a redução de compra de equipamentos de porte médio. 


Apesar disso, é comum ouvir duas perguntas a respeito dessa nova plataforma: "Será que devo investir em cloud?" e "Como implantar uma infraestrutura de acordo com as necessidades do meu negócio?".

 

Antes de refletir sobre esses pontos, é importante considerar o comportamento do mercado em relação à tendência. Uma pesquisa divulgada em maio pelo Gartner aponta que os investimentos com IaaS devem atingir, até o final deste ano, a marca dos US$ 16,5 bilhões. Isso demonstra o interesse crescente das organizações pela tecnologia e os benefícios que traz: manter estruturas, dados e um alto volume de aplicações em segurança, com flexibilidade e escalabilidade.

 

Diante das vantagens em adotar a nuvem como infraestrutura e reflexo desse elevado interesse por parte do mercado, empresas dos mais variados segmentos já têm optado por reduzir os altos custos de manutenção e de atualização do ambiente físico de TI. Nesse sentido, o movimento que tenho notado é que tais empresas utilizam seus ambientes físicos até se tornarem obsoletos enquanto começam, gradativamente, a migrar seus bancos de dados e aplicações para a cloud. Escalável e flexível, a solução permite que as empresas utilizem apenas as funcionalidades que precisam, reduzindo assim, gastos desnecessários que sistemas totalmente internos podem implicar no orçamento.

 

Outro ponto positivo é permitir à empresa que foque sua energia e recursos no negócio em si, deixando a complexidade do ambiente de TI a cargo do fornecedor responsável por garantir seu bom funcionamento. Ainda, a adoção de uma plataforma cloud não implica que a companhia abandone a infraestrutura existente, sendo possível operar o sistema de maneira híbrida. Isso possibilita, por exemplo, que financeiras rodem seus sistemas internos em ambientes físicos e, simultaneamente, serviços ao cliente pela internet por meio da cloud.

 

No Brasil, alguns tabus que rondam a adoção de cloud computing ainda existem e precisam ser quebrados, como a ideia de que os dados não estão seguros. É evidente que a escolha pelo fornecedor deve ser feita levando em consideração itens como a credibilidade e qualidade de entrega da companhia, bem como o alto nível de confidencialidade que ela demanda de seus colaboradores. De todo modo, hospedar um ambiente de TI na nuvem pode ser muito mais seguro do que manter os dados em hardwares internos, alvo mais vulnerável a ataques cibernéticos.

 

Por tudo isso, afirmo que vale a pena ter uma infraestrutura em cloud. Para implantar a solução mais aderente ao negócio, é preciso considerar alguns pontos. O primeiro deles é olhar para dentro de casa e avaliar qual é a infraestrutura existente e o quanto ela pode ser utilizada sem a necessidade de reinvestimento. Isso feito, investimentos sob demanda na cloud podem ser realizados à medida que novas aplicações e serviços vão surgindo. O segundo é analisar para onde caminha a necessidade de seu cliente e se seu negócio está preparado para acompanhar essas tendências. Exemplo disso é a possibilidade de surgimento de novas demandas, como suportar uma solução de big data ou de Internet das Coisas, ambas já disponíveis em nuvem e que exigem infraestrutura especializada, cara e complexa demais para a implementação interna. 

 

Ao optar por um fornecedor, é importante considerar alguém que não se preocupe apenas em vender uma plataforma, mas sim, que auxilie no processo de decisão dos serviços a serem adotados. Dessa forma, empresas que não têm em seu core business a necessidade de uma equipe de TI dedicada podem ter "um sono tranquilo", com a garantia de que seu negócio conta com o serviço ideal para o bom funcionamento de suas operações.

 

Por fim, acompanhar as tendências tecnológicas e implantá-las garante estar sempre um passo à frente da concorrência. Nesse sentido, a computação em nuvem já é uma realidade sendo, atualmente, a plataforma mais escalável e flexível do mercado. A cloud proporciona um universo de soluções e experiências cada vez mais afinadas com o futuro.

 

*Antonio Carlos Guimarães é evangelista de cloud da Fujitsu do Brasil



Enviado do meu iPhone

Infraestrutura em cloud: vale a pena ter a minha?

Infraestrutura em cloud: vale a pena ter a minha?
Vale a pena a leitura.

Infraestrutura em cloud: vale a pena ter a minha?

Diante de um mercado que exige cada vez mais agilidade no processamento de informações e de um cenário econômico que demanda uma séria revisão nos orçamentos, uma tendência global tem repercutido no Brasil, a adoção de soluções de infraestrutura como serviço (IaaS) – um dos modelos de computação em nuvem – e a redução de compra de equipamentos de porte médio. 


Apesar disso, é comum ouvir duas perguntas a respeito dessa nova plataforma: "Será que devo investir em cloud?" e "Como implantar uma infraestrutura de acordo com as necessidades do meu negócio?".

 

Antes de refletir sobre esses pontos, é importante considerar o comportamento do mercado em relação à tendência. Uma pesquisa divulgada em maio pelo Gartner aponta que os investimentos com IaaS devem atingir, até o final deste ano, a marca dos US$ 16,5 bilhões. Isso demonstra o interesse crescente das organizações pela tecnologia e os benefícios que traz: manter estruturas, dados e um alto volume de aplicações em segurança, com flexibilidade e escalabilidade.

 

Diante das vantagens em adotar a nuvem como infraestrutura e reflexo desse elevado interesse por parte do mercado, empresas dos mais variados segmentos já têm optado por reduzir os altos custos de manutenção e de atualização do ambiente físico de TI. Nesse sentido, o movimento que tenho notado é que tais empresas utilizam seus ambientes físicos até se tornarem obsoletos enquanto começam, gradativamente, a migrar seus bancos de dados e aplicações para a cloud. Escalável e flexível, a solução permite que as empresas utilizem apenas as funcionalidades que precisam, reduzindo assim, gastos desnecessários que sistemas totalmente internos podem implicar no orçamento.

 

Outro ponto positivo é permitir à empresa que foque sua energia e recursos no negócio em si, deixando a complexidade do ambiente de TI a cargo do fornecedor responsável por garantir seu bom funcionamento. Ainda, a adoção de uma plataforma cloud não implica que a companhia abandone a infraestrutura existente, sendo possível operar o sistema de maneira híbrida. Isso possibilita, por exemplo, que financeiras rodem seus sistemas internos em ambientes físicos e, simultaneamente, serviços ao cliente pela internet por meio da cloud.

 

No Brasil, alguns tabus que rondam a adoção de cloud computing ainda existem e precisam ser quebrados, como a ideia de que os dados não estão seguros. É evidente que a escolha pelo fornecedor deve ser feita levando em consideração itens como a credibilidade e qualidade de entrega da companhia, bem como o alto nível de confidencialidade que ela demanda de seus colaboradores. De todo modo, hospedar um ambiente de TI na nuvem pode ser muito mais seguro do que manter os dados em hardwares internos, alvo mais vulnerável a ataques cibernéticos.

 

Por tudo isso, afirmo que vale a pena ter uma infraestrutura em cloud. Para implantar a solução mais aderente ao negócio, é preciso considerar alguns pontos. O primeiro deles é olhar para dentro de casa e avaliar qual é a infraestrutura existente e o quanto ela pode ser utilizada sem a necessidade de reinvestimento. Isso feito, investimentos sob demanda na cloud podem ser realizados à medida que novas aplicações e serviços vão surgindo. O segundo é analisar para onde caminha a necessidade de seu cliente e se seu negócio está preparado para acompanhar essas tendências. Exemplo disso é a possibilidade de surgimento de novas demandas, como suportar uma solução de big data ou de Internet das Coisas, ambas já disponíveis em nuvem e que exigem infraestrutura especializada, cara e complexa demais para a implementação interna. 

 

Ao optar por um fornecedor, é importante considerar alguém que não se preocupe apenas em vender uma plataforma, mas sim, que auxilie no processo de decisão dos serviços a serem adotados. Dessa forma, empresas que não têm em seu core business a necessidade de uma equipe de TI dedicada podem ter "um sono tranquilo", com a garantia de que seu negócio conta com o serviço ideal para o bom funcionamento de suas operações.

 

Por fim, acompanhar as tendências tecnológicas e implantá-las garante estar sempre um passo à frente da concorrência. Nesse sentido, a computação em nuvem já é uma realidade sendo, atualmente, a plataforma mais escalável e flexível do mercado. A cloud proporciona um universo de soluções e experiências cada vez mais afinadas com o futuro.

 

*Antonio Carlos Guimarães é evangelista de cloud da Fujitsu do Brasil



Enviado do meu iPhone

sábado, 28 de novembro de 2015

Capa de livro

No facebook apareceu uma publicação que fiz no ano passado, neste mesmo dia, que acho adequado publicar para relembrar... 

Lamentável, mas o tema sempre será atual.

Segue:

Mesmo que outros coloquem a capa do livro que conta sua história, seus resultados, como é comum acontecer, tanto os outros como vc sabe quem escreveu e fez a história é sua.... 

Relaxa, a capa é a primeira página que se deixa para trás ! 

Já a história continuará  sendo escrita e só vc saberá escrevê-la.




Capa de livro

No facebook apareceu uma publicação que fiz no ano passado, neste mesmo dia, que acho adequado publicar para relembrar... 

Lamentável, mas o tema sempre será atual.

Segue:

Mesmo que outros coloquem a capa do livro que conta sua história, seus resultados, como é comum acontecer, tanto os outros como vc sabe quem escreveu e fez a história é sua.... 

Relaxa, a capa é a primeira página que se deixa para trás ! 

Já a história continuará  sendo escrita e só vc saberá escrevê-la.




domingo, 22 de novembro de 2015

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo - InfoMoney
Vale a pena a leitura post publicado originalmente pelo InfoMoney em:

Guerra virtual: site mostra em tempo real todos os ataques hackers pelo mundo

SÃO PAULO - Não chega a ser novidade, mas em um mundo onde a tecnologia impera e as relações se tornam cada vez mais digitais, fica difícila para as pessoas terem alguam noção do que está acontecendo ao nosso redor, mesmo que não seja fisicamente. Nos últimos dias, o grupo hacker Anonymous declarou guerra contra o Estado Islâmico após os ataques na França. Mas este conflito não é nem um pouco novo, e está acontecendo bem na sua frente.
Para o ser humano, é muito complicado imaginar - ou quantificar - as informações sobre o mundo digital, seja o quanto representa um Petabyte (são 1.000.000.000.000.000 bytes), ou o número de sites que existem na internet hoje (segundo o Internet Live Stats são quase 1 bilhão de sites), imagine então sobre os atackes hackers que estão ocorrendo. E para isso, a NorseCorp criou um mapa mostrando os ataques cibernéticos que estão sendo realizados.
A companhia, que cria softwares de segurança, colocou em uma página um mapa mostrando de onde estão saindo os ataques hackers, quais os alvos, e algumas informações mais detalhadas como IP de onde saiu o ataque. É importante destacar que acabar com isso não é tão simples, já que mesmo sabendo destas informações, provavelmente os hackers que estão por trás estão articulando os ataques de outros locais.
Saber os países de onde estes ataques estão sendo realizados também ajuda a compreender as nações que estariam "sustentando" este tipo de guerra, já que é preciso ter servidores e outros equipamentos para que, pelo menos, você consiga mascarar seu IP em outro país. Para conferir o site, clique aqui e depois clique em "live attacks"
Avalie essa notícia:
Enviado do meu iPhone

sexta-feira, 20 de novembro de 2015

Data center - Principais tendências

Top data center industry trends of 2016

Vale a pena a leitura.

Alguns pontos de destaques:

...Geografia importa mais do que nunca...

...no futuro, 60% a 65% dos ativos de TI estará fora do local e da equipe de TI...

...ser capaz de mover ativos e dados para novas instalações rapidamente...

...terá de acompanhar a gestão dos Data Center distribuídos não gerenciados pelo meu próprio povo...

...Data Center diferentes e diferentes infra-estruturas irá forçar a encontrar novas ferramentas para monitorar a segurança e desempenho...

...Convergência e infraestrutura definida por software e são outras tendências da indústria de Data Center

Top data center industry trends of 2016

The future data center will continue to be hybrid -- not just part of a hybrid cloud.

Coordinating a vast landscape of people and infrastructure will soon be a regular part of data center managers' jobs, one of the many changes predicted by IDC for 2016 and beyond.

In its latest FutureScape look at data center industry trends, analyst firm IDC in Framingham, Mass., said that planning the location of data center resources will become a "critical requirement" while maintaining control over the staff to manage it all.

"Geography matters more than ever -- where you place these data center assets," said Richard Villars, vice president of data center and cloud at IDC, and one of the authors of the Worldwide Data Center 2016 Predictions report.

The location of customers, business activity and plans to expand to new geography will increasingly influence data center decisions, he said.

Hybrid IT is the management of various environments in various locations, often run by a combination of staff and outsourced workers, Villars said.

"For many companies, the past three to four years have been the trip to the hybrid cloud," Villars said. "The next three to four years are about moving to a hybrid IT world."

PRO+

Content

That new hybrid IT world will involve diverse assets in an enterprise's own data center, as well as third-party data centers.

"How do we change the role of the data center team and IT team?" Villars said. In the past, data center managers have focused on buying equipment, plus managing facilities and equipment in their own data center and third-party data centers. But in the future, 60% to 65% of IT assets will be off-site and the IT staff will need to manage all of it, he said.

"You'll have to continue to refine your data center selection, governance and performances processes," Villars said. Data center teams will take on new jobs and need to evaluate partners, as well as provide consistent management and security across all internal and external access points, he said.

Those internal data center teams must find providers that offer more than facilities and equipment, but have "transformative" teams with various skills, including software developers.

One of the most challenging data center industry trends will be the monitoring needed for data centers around the globe, said Frank Wichlac, vice president at Acxiom IT in Downers Grove, Ill.

"It isn't just one location anymore, it is all over," Wichlac said. "It is not your building, it is everything that brings IT together and you have to take responsibility for all of it."

An inside-outside world

Data center managers will also need to bring together the people running their data centers, whether it is staff or outside vendors.

Outside companies will provide some of those management and configuration tasks, Villars said. The challenge for IT organizations will be to manage multiple data centers with multiple sources of staff.

As more companies rely on service providers for staffing, data center managers will increasingly face the job of managing the movement and security of data -- whether it is on premises or off premises.

"Your staff and the staff your partners provide to help deliver new service and new capabilities ... [are] increasingly critical," Villars said.

The job of data center staff at enterprises will be to organize and synchronize people to make sure all teams are functioning and performing efficiently, he said.

Agile has long been a term associated with software development, but it will soon become an equally important quality in the data center, too, Villars said. Agility for the data center will mean being able to move assets and data into new facilities quickly, and also getting the financing in place.

The new data center environment will soon take center stage, said Adrian Nowik, technology manager at Pan American Energy in Buenos Aires, Argentina.

I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that.
Adrian Nowiktechnology manager, Pan American Energy

"I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that," he said.

Different data centers and different infrastructures will also force Nowik to find new tools to monitor security and performance.

Convergence and software-defined infrastructure are other data center industry trends that will also become "more critical," and the move toward it must happen faster, Villars said.

Some of the new hyper-converged offerings in 2016 and 2017 will drive data center consolidation for the data center and its staff. Hyper-converged and software-defined infrastructure will accelerate the use of managed services to do basic administration and configuration, as well as shift staff time toward "value-added business services" and managing all the data that is being created.

"This has major consequences for data center facilities and data center deployment," Villars said.

Data center staff will need to be more aggressive about automating discovery, provisioning and location tasks, he said.

"We can't rely on individuals walking through the building looking for space and power," he said. "We need systems to be self-identifying and self-discovering."

  • Robert Gates asks:

Data center ideas that got lost in translation



Enviado do meu iPhone

Data center - Principais tendências

Top data center industry trends of 2016

Vale a pena a leitura.

Alguns pontos de destaques:

...Geografia importa mais do que nunca...

...no futuro, 60% a 65% dos ativos de TI estará fora do local e da equipe de TI...

...ser capaz de mover ativos e dados para novas instalações rapidamente...

...terá de acompanhar a gestão dos Data Center distribuídos não gerenciados pelo meu próprio povo...

...Data Center diferentes e diferentes infra-estruturas irá forçar a encontrar novas ferramentas para monitorar a segurança e desempenho...

...Convergência e infraestrutura definida por software e são outras tendências da indústria de Data Center

Top data center industry trends of 2016

The future data center will continue to be hybrid -- not just part of a hybrid cloud.

Coordinating a vast landscape of people and infrastructure will soon be a regular part of data center managers' jobs, one of the many changes predicted by IDC for 2016 and beyond.

In its latest FutureScape look at data center industry trends, analyst firm IDC in Framingham, Mass., said that planning the location of data center resources will become a "critical requirement" while maintaining control over the staff to manage it all.

"Geography matters more than ever -- where you place these data center assets," said Richard Villars, vice president of data center and cloud at IDC, and one of the authors of the Worldwide Data Center 2016 Predictions report.

The location of customers, business activity and plans to expand to new geography will increasingly influence data center decisions, he said.

Hybrid IT is the management of various environments in various locations, often run by a combination of staff and outsourced workers, Villars said.

"For many companies, the past three to four years have been the trip to the hybrid cloud," Villars said. "The next three to four years are about moving to a hybrid IT world."

PRO+

Content

That new hybrid IT world will involve diverse assets in an enterprise's own data center, as well as third-party data centers.

"How do we change the role of the data center team and IT team?" Villars said. In the past, data center managers have focused on buying equipment, plus managing facilities and equipment in their own data center and third-party data centers. But in the future, 60% to 65% of IT assets will be off-site and the IT staff will need to manage all of it, he said.

"You'll have to continue to refine your data center selection, governance and performances processes," Villars said. Data center teams will take on new jobs and need to evaluate partners, as well as provide consistent management and security across all internal and external access points, he said.

Those internal data center teams must find providers that offer more than facilities and equipment, but have "transformative" teams with various skills, including software developers.

One of the most challenging data center industry trends will be the monitoring needed for data centers around the globe, said Frank Wichlac, vice president at Acxiom IT in Downers Grove, Ill.

"It isn't just one location anymore, it is all over," Wichlac said. "It is not your building, it is everything that brings IT together and you have to take responsibility for all of it."

An inside-outside world

Data center managers will also need to bring together the people running their data centers, whether it is staff or outside vendors.

Outside companies will provide some of those management and configuration tasks, Villars said. The challenge for IT organizations will be to manage multiple data centers with multiple sources of staff.

As more companies rely on service providers for staffing, data center managers will increasingly face the job of managing the movement and security of data -- whether it is on premises or off premises.

"Your staff and the staff your partners provide to help deliver new service and new capabilities ... [are] increasingly critical," Villars said.

The job of data center staff at enterprises will be to organize and synchronize people to make sure all teams are functioning and performing efficiently, he said.

Agile has long been a term associated with software development, but it will soon become an equally important quality in the data center, too, Villars said. Agility for the data center will mean being able to move assets and data into new facilities quickly, and also getting the financing in place.

The new data center environment will soon take center stage, said Adrian Nowik, technology manager at Pan American Energy in Buenos Aires, Argentina.

I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that.
Adrian Nowiktechnology manager, Pan American Energy

"I will need to monitor the management of distributed data centers not managed by my own people; I will need to pay more attention to that," he said.

Different data centers and different infrastructures will also force Nowik to find new tools to monitor security and performance.

Convergence and software-defined infrastructure are other data center industry trends that will also become "more critical," and the move toward it must happen faster, Villars said.

Some of the new hyper-converged offerings in 2016 and 2017 will drive data center consolidation for the data center and its staff. Hyper-converged and software-defined infrastructure will accelerate the use of managed services to do basic administration and configuration, as well as shift staff time toward "value-added business services" and managing all the data that is being created.

"This has major consequences for data center facilities and data center deployment," Villars said.

Data center staff will need to be more aggressive about automating discovery, provisioning and location tasks, he said.

"We can't rely on individuals walking through the building looking for space and power," he said. "We need systems to be self-identifying and self-discovering."

  • Robert Gates asks:

Data center ideas that got lost in translation



Enviado do meu iPhone

Mídias de armazenamento: 50 anos de história

Mídias de armazenamento: 50 anos de história - TecMundo

Um pouco de história...

Vale a pena a leitura.


Mídias de armazenamento: 50 anos de história

Você já parou para pensar no que poderia ser armazenado em um disco rígido de 5 MB? Uma música? Alguns textos? Nada muito importante. Sim, é difícil imaginar a vida cotidiana sem pensar em gigabytes e terabytes, mas há 50 anos, era assim que o mundo da informática vivia: baseado em 5 megabytes de espaço em disco.
 
O ano exato era 1956 e a IBM havia acabado de lançar o então moderníssimo IBM 305 RAMAC, um computador nada portátil que pesava algo em torno de 1 tonelada (1000 Kg). De lá para cá, muita coisa mudou, é óbvio, e o que o usuário mais tem percebido – mesmo analisando apenas os últimos dez anos – é a relação inversamente proporcional entre tamanho e capacidade.

Agora o portal Baixaki traz ao usuário algumas informações muito interessantes acerca da história das mídias de armazenamento, tanto no campo musical, quanto nos campos fotográfico e digital, relembrando os principais dispositivos criados para o carregamento de dados e também algumas curiosidades sobre esses elementos tecnológicos.

A História do armazenamento

Da cera ao iPod...
Hoje é difícil conhecer alguém que não possua um MP3 player ou qualquer outro reprodutor digital de mídias: 2 GB, 4 GB...Isso parece pouco em alguns momentos, as mídias armazenam horas e mais horas de canções sem repetições, mas isso nem sempre foi assim, há muito tempo a história era bem diferente.

Um dos primeiros formatos de mídia musical, o cilindro fonográfico, inventado por Thomas Edison, era composto de estanho e podia ser reproduzido apenas três ou quatro vezes. Devido à pouca durabilidade foi criado um outro cilindro, de cera, que durava mais e possuía maior qualidade.

Os saudosos discos de vinilEm 1895, os cilindros foram substituídos por discos de goma-laca, que eram tocados em 78 rotações, possuíam mais potência sonora e armazenava até 44 minutos de músicas.

Já no século XX, na década de 30, foi criado o sistema de gravação em bobinas, ou fitas de rolo, ou seja, fitas plásticas que podiam guardar os áudios de maneira eficiente para a época. Tendo em média 16 cm de diâmetro, as bobines foram inspiração para a posterior fita cassete, que tinha a grande vantagem de ser extremamente portátil e podia tocar até uma hora inteira.


Dos discos que passaram a ser produzidos em vinil até as fitas magnéticas, muito tempo passou, até que em 1982 os primeiros CDs começaram a ser comercializados. Eles possuíam a vantagem de serem gravados digitalmente, possibilitando melhores equalizações e, por consequência, maior qualidade na reprodução, que chegava a 80 minutos.

Hoje, o que impera no mundo da música é o iPod (e alguns outros tocadores de mídia digital), pois a capacidade de armazenamento é gigantescamente superior. Um iPod de 120 GB pode guardar o tempo de reprodução equivalente ao de 3829 discos de vinil; 3663 minidiscs; 2808 fitas cassete ou 2106 CDs.
Das câmeras instantâneas ao cartão de memória...
No século XX houve a expansão dos mercados consumidores e as câmeras fotográficas começaram a fazer parte da vida cotidiana de muitas pessoas, mesmo das que não faziam parte da elite. Logicamente o sucesso não foi algo rápido, sendo gradativamente alcançado. Durante anos, as câmeras de foto instantânea imperaram no imaginário popular, até que as primeiras câmeras com filme de revelação posterior foram lançadas.

A maioria dos filmes podia armazenar entre 12 e 36 fotos que, em seguida, seriam reveladas e lotariam os álbuns fotográficos que suportavam cerca de 100 fotos e ocupavam algo em torno de 800 cm³ nos armários das famílias.

Álbuns de fotos

Se esses álbuns forem comparados aos primeiros disquetes, já se pode começar a perceber o quanto a digitalização facilitou o armazenamento das fotografias, pois um disquete de 3,5 polegadas poderia guardar até 50 fotos em baixa resolução.

Isso era só o começo, afinal um disquete tinha capacidade de apenas 1,44 MB. Já pensando em mídias mais modernas, como flash drives e cartões de memória, acoplados às câmeras digitais que já não são mais alimentadas por filmes químicos, e sim por memória eletrônica, a comparação parece ainda mais absurda.

Um cartão de memória SD (Secure Digital) ou mSD (Micro Secure Digital) pode chegar a armazenar até 4000 fotos nos 2 GB de memória interna, sem chegar a ocupar espaço físico significativo.

Pensando em uma unidade de armazenamento de 120 GB, o acervo de fotografias poderia chegar a 31 mil fotos, ou então a um disco rígido de 2 Terabytes, em que 680 mil fotos poderiam ser guardadas, o equivalente a 6800 álbuns de fotografias; 28 mil filmes e mais de 1 milhão de disquetes.Do RAMAC ao pendrive...
Como contado no início do artigo, há pouco mais de 50 anos eram necessários computadores de mais de uma tonelada para que o armazenamento de 5 MB fosse possível. O tempo passou, os computadores foram diminuindo e as capacidades aumentando de maneira inversamente proporcional.

Já foram lançados discos rígidos de 200 MB a 2 TB e não param de surgir novos modelos. É difícil imaginar o que seria dos usuários hoje, com menos de 80 GB, assim como é impossível pensar em como seria o mundo da informática de 50 anos atrás, se já houvesse a memória de terabytes.

Discos rígidos

Mas talvez o maior trunfo já atingido pela indústria da informática esteja na mídia portátil. Assim como nos dispositivos fixos, os avanços tecnológicos nos armazenadores portáteis diminuíram as dimensões e aumentaram exponencialmente as capacidades de memória.

Até os anos 80, o famoso "disquetão" de 5,25 polegadas e 1,2 MB era o mais usado para transportar dados de um computador a outro. Pouco tempo depois foi lançado o disquete de 3,5 polegadas e 1,44 MB, que tinha mais vantagem pela estabilidade (os "disquetões" estragavam com uma facilidade incrível) do que pela memória em si.

O tempo passou e os computadores pessoais passaram a ser vendidos com drives leitores de CDs, que possuíam 700 MB, o que representava uma enorme capacidade de memória, se comparados com os disquetes, que ainda não haviam sido abandonados, devido aos preços altíssimos dos gravadores de CD. Quando estes tornaram-se populares, as pequenas unidades flexíveis de 1,44 MB foram sendo gradativamente deixadas de lado.

Mas os avanços tecnológicos não pararam por aí. Em 1996, exatos 40 anos após o surgimento do RAMAC, foi lançada uma nova mídia muito semelhante aos discos compactos: era o DVD (Digital Versatil Disc), que podia armazenar até 4,7 GB e, posteriormente, com o DVD de camada dupla, 8, 5 GB.

Chegam a 2 TB

Desenvolvido numa parceria entre Toshiba, Philips e Sony, o DVD foi popularizado como uma mídia cinematográfica, pois a funcionalidade mais explorada pela indústria foi justamente a de reprodução de filmes. Sendo assim, além dos CDs, o DVD também foi o algoz de outra mídia muito importante para a história da tecnologia, as fitas VHS.

Quando os 8,5 GB começaram a ser pouco para tanta qualidade gráfica, a indústria cinematográfica ganhou um novo parceiro: o Blu-ray. Lançado oficialmente em 2006, foi a primeira mídia a suportar resoluções altíssimas e áudio de alta qualidade em discos únicos.

Os discos Blu-ray podem possuir 25 GB ou 50 GB (quando de camada dupla), sendo pouco utilizados para transporte de dados, já que o processo de gravação é um pouco demorado e a qualidade é idêntica à de DVDs.

Os dispositivos que mais cresceram nos últimos anos, exclusivamente pela capacidade, facilidade e velocidade no transporte de dados, foram os pendrives, que outrora foram limitados aos 32 MB de memória e hoje já chegam a armazenar mais de 128 GB, sendo as mídias portáteis mais eficientes da atualidade. Em questões de memória, ficam atrás apenas dos discos rígidos, que podem armazenar terabytes.

PendrivesUm pendrive de 128 GB pode ser comparado (em questões de capacidade interna) com: 28 DVDs; 187 CDs; 91 mil disquetes de 3,5 polegadas ou 109 mil disquetes de 5,25 polegadas. Um disco rígido de 2 TB pode armazenar o conteúdo de 17 pendrives desses.

Além disso, outra forma de transportar dados de forma segura – mesmo que não tão portátil – é através do uso de HDs externos. Eles geralmente são acoplados a gavetas externas e conectados aos computadores através de cabos USB.

Por enquanto o processo de transferência de arquivos é um pouco lento, pois a velocidade de resposta dos USBs é limitada, mas num futuro próximo - com o surgimento de tecnologias como o Light Peak - o processo pode ser bem mais veloz.

Até aonde iremos chegar?
Analisando a enorme evolução tecnológica que ocorreu nos últimos 50 anos, surge uma dúvida que é recorrente às mentes humanas: em 1956, uma tonelada armazenava 5 MB, hoje 2 milhões de MB podem ser armazenados em menos de 100 g. Até onde isso poderá evoluir? Chegará um dia em que as mídias serão ainda mais reduzidas? Ou a internet ficará tão rápida que não serão necessários os transportes físicos? Deixe sua opinião.



Enviado do meu iPhone

quinta-feira, 19 de novembro de 2015

Cloud Computing - A virada do jogo

Cloud Computing - The Game Changer »

Mais um post que repercute as previsões e contextos para o futuros...

Vale a leitura. 



CLOUD COMPUTING – THE GAME CHANGER

Global Cloud Index

In October, Cisco released its Global Cloud Index (GCI) report for 2014-2019, projecting a near 3-fold growth of global data center traffic, with predictions that this traffic will reach 10.4 zettabytes per year in 2019 and 80% of it will come from the Cloud. It's predicted that the Middle East and Africa will show the highest Cloud traffic growth at 41% CAGR, followed closely by Eastern Europe (38% CAGR), and North America (33% CAGR). Cloud computing has already revolutionized the way we live and do business, but it's evident the evolution has just begun.

traffic-cloud

Cloud Drivers

Cisco predicts that the development of IoT will notably increase cloud traffic growth as a broad range of IoT applications generate data that may reach 507.5 zettabytes per year in 2019. Today, the majority of IoT data is stored on individual devices, but that could change with the evolution of big data analytics and application demand.

Cisco's GCI also projects that Software as a Service (SaaS) will be the most adopted and popular service model for cloud workloads by 2019, increasing 14% between 2014 and 2019, but Infrastructure as a Service (IaaS) workloads and Platform as a Service (PaaS) workloads of the total cloud workloads will drop.

Cloud Mobility Changing our Lives

mobile-users-2019

Gaming

Cloud is encouraging the uptake of gaming with its broad reach as well as the power to provide high speed and optimum hardware requirements to anyone. And with new applications developing for almost every industry, including healthcare, insurance, and education, the Cloud is literally gamifying our lives.

Information Overload

While the Cloud is likely to make maintenance and repair easier as Cloud-based apps alert users of failures and connect to the net for self-repair procedures, we are also likely to find ourselves inundated with notifications, reports, advice, and warnings. Add to this, marketers will be taking every opportunity to tailor shopping experiences and develop relationships, so advice and suggestions aren't likely to be in short supply.

Making You Smarter

Of course, as the Cloud turns mobile devices into supercomputers, we'll have access to more information to make smarter decisions, having the power to analyze almost any information wherever we are. Moreover, the possibilities for IoT devices that make us more intelligent are endless.

Remove Business Constraints

As small- and medium-sized businesses leverage the Cloud, geographical and budget constraints will fade with the benefits of scalability. Businesses won't need to deploy on-site infrastructure to run operations and will, in days, be able to go global and keep up with much larger companies.

Healthier Homes

With the flourishing home health monitoring market, public and private Cloud will make our homes healthier. As the Cloud provides doctors with wireless patient monitoring, valuable data can be analyzed for the creation of better treatment plans.

The Babel Fish

Cloud computing is already providing mobile-device users with accurate speech recognition that may fade language barriers almost as well as Douglas Adams' Babel Fish. We might not have long to wait for a software able to recognize and then translate audio over a mobile device, providing users with real-time translation services for all their calls.

Not matter the industry or region, Cloud is changing our lives in dramatic and exciting ways. Do you have any ideas or hopes for the next big Cloud innovation? Let us know in the comments below.

By Jennifer Klostermann



Enviado do meu iPhone