Vamos conversar um pouco mais sobre Backups OFFLINE e OFFSITE?

Vamos conversar um pouco mais sobre Backups OFFLINE e OFFSITE? - RioOFFSite
Por: Laert Perlingeiro Goulart – 09/03/2020.
Tempo de leitura – 9 minutos.

Existe um consenso que existem duas formas de backup externo (Offsite):

1a Os que são mantidos em serviços na Nuvem; e
2a Os armazenados em fitas, em salas de segurança de empresas especializadas nesta atividade.

Até a uns cinco anos atrás, a 2a alternativa era a mais comum, entretanto, com o avanço tecnológico transformando o mercado, proliferando serviços em Datacenters espalhados por todo o planeta, o Backup em nuvem passou a vigorar como a alternativa que mais se desenvolveu e, tomou conta do cenário, deixando muito pra trás os sistemas de backup em mídias.

Esta constatação não foi sentida apenas pelo seguimento de empresas especializadas em guarda de Backups Offsite, mas também pelos distribuidores de Fitas LTO e Hardwares de conversão de dados para Fita. Também observei as considerações de especialistas em muitos artigos internacionais, publicados ao longo do ano 2019.

“Os BACKUPS são a única maneira objetiva de retornar uma empresa a um bom estado conhecido.”

Sabemos que manter Backups atualizados dos dados da empresa é quase que uma regra indispensável nos dias atuais, uma vez que praticamente tudo está funcionando dentro de computadores, produzindo uma quantidade enorme de dados que em caso de “desastre” (como se chama a perda dos dados), a empresa pode parar, pode causar prejuízos aos clientes e, criar um abismo de informação que poderá causar perdas irrecuperáveis, com desdobramentos legais inclusive.

Nada disso é novidade, mas sempre é bom lembrar que: prevenir e gerenciar riscos são as palavras de ordem do momento!

Além dos problemas normais do dia-a-dia, tais como acidentes, falhas de sistema ou de operação, incidentes naturais como sobrecargas elétricas, alagamentos, incêndios etc, ainda temos que lidar com os crimes cibernéticos que aumentam em escala superior ao desenvolvimento tecnológico, principalmente na área de segurança.

Os “MALWARES” foram aperfeiçoados para procurar e inabilitar os arquivos de Backup!

Os Malwares estão sendo direcionados para atingir os backups. Logicamente os hackers que os desenvolvem, sabem o ponto fraco das empresas e sabem que se não atingirem os backups, provavelmente os gerentes de T.I. rirão dos ataques, assim que colocarem os sistemas em operação novamente.

Hoje é cada vez maior o número de empresas que tem um bom DRP (Disaster Recovery Plan), já existe inclusive, ótimos DRaaS, que regulam os processos, testam rotinas e executam a recuperação dos dados em caso de desastre real. Elas estão investindo em boas práticas e tecnologias para recolocar em marcha os negócios, após um desastre real.

Como impedir que os Hackers comprometam os Backups, se os dados estão em rede e online?

Uma resposta simples para uma pergunta objetiva: mantendo pelo menos uma cópia OFFLINE e OFFSITE! Esta é a Regra 1 da boa e velha estratégia 3-2-1. Que consiste em 3 cópias dos dados, sendo: 2 backups em 2 tipos de mídia e 1 Offsite e Offline.

Logicamente que não é só isso! Outras ações de segurança devem ser implementadas para proteção da sua rede, inclusive porque você deverá manter a cópia Backup acessível e online para recuperações cotidianas, que serão mais ágeis e praticas em serviços online na Nuvem.

Mas, no mundo dos Backups em Fita, nem tudo é decorrente de ataques!

Mais terrível que um ataque Hacker de vez em quando, é a corrosão que afeta diariamente os cofres da empresa! Na realidade esta expressão dramática, retrata um pequeno custo adicional que cresce sob a sombra da preocupação em manter dados preservados por longos períodos, anos, décadas e por ai vai pelo futuro afora.

Quer fazer uma conta simples? Imagine acumular 40 Gigabytes (muito pouco hoje em dia) por mês. Serão 480 Giga, (½ Terabyte) por ano; em 10 anos serão apenas 5 Terabytes acumulados. Se você contrata um serviço de Nuvem a U$ 0,20 / Giga / Mês – fazendo uma conta de progressão aritmética simples, apenas com armazenagem de dados, para esta simulação incremental, o custo terá sido de 60 mil dólares nestes dez anos, sem considerar custos financeiros, inflação, etc.

Ao passo que se você tem uma fita LTO 6 que armazena os mesmos 5 Terabytes, o custo de armazenagem desta fita, em uma sala de segurança, pelos mesmos 10 anos, representaria incríveis 240 dólares! Proporcionalmente falando, uma vez que se paga pelo espaço que a fita ocupa no slot da sala de segurança, que é de cerca de US$ 2,00 / fita / mês – você armazena a fita e vai incrementando seus dados – no caso os mesmos 40 GB por mês e levaria 10 anos até encher totalmente a fita. (fonte dos cálculos acima – banco de dados do autor)

Estas contas servem apenas para demonstrar como os custos de armazenagem podem variar de forma absurda quando se compara as duas alternativas citadas no início deste artigo.

“É comum para muitas empresas simplesmente salvar tudo e para sempre!”

Como disse o Jhon Edwards, especialista e autor do artigo “In you data archives estrategy, how long is long enough?” (publicado em 13/11/2019 no site americano www.techtarget.com), especializado no assunto. “É comum para muitas empresas simplesmente salvar tudo e para sempre!”

De fato, com o avanço dos sistemas e dos processos operacionais – cada vez mais complexos nas empresas – que reúnem imagens e, até mesmo, arquivos de áudio e vídeo, nos documentos gerados, cada vez mais as storages necessitam mais capacidade e, por conseguinte, os backups também vão ficando maiores.

GIGA – TERA – PETA – EXA – ZETTA! Onde vai parar o crescimento das capacidades?

Há alguns meses recebi uma demanda para análise e projeto: o consultor comercial trouxe uma demanda para estudo. Tratava-se de uma estrutura de Backup em fitas LTO 5 e 6, com rotina semanal de troca de fitas para incremental e um mensal de guarda permanente. O cliente é do mercado financeiro, queria eliminar a logística de troca de fitas e também eliminar os custos com insumos (fitas e hardwares), trafegar tudo pela nuvem e armazenar de forma segura.

Os volumes reportados: 50 Terabytes, com incremental de 5 Terabytes por mês. Algo me pareceu estranho! A rotina de incremental semanal, OK; O volume que se torna permanente mensalmente, OK! Mas o acervo me pareceu pouco. De qualquer forma, já na partida a coisa complicou porque transferir 5 TB pelos links disponíveis no cliente já necessitaria um certo tempo, de que não se dispunha. Outro aspecto que veio a tona foi a simulação em caso de desastre, o famoso DR (Disaster Recovery). O Backup Full, se fosse 50 TB, retornando por um link dedicado de 100 Mbit, levaria semanas ou meses com certeza, isso se não acontecesse nenhum pico de energia ou interrupção, onde teria que começar tudo de novo.

O cliente me ligou no meio do estudo e me disse que havia cometido um erro na informação de partida. O Full (ou o que ele considerava como sendo o volume total armazenado), não eram 50 Terabytes, mas 50 Petabytes!

O Projeto parou e até hoje nos falamos de vez em quando para tentar estruturar alternativas sustentáveis. A coisa deve passar por uma avaliação rigorosa de conteúdo e processo e trabalhar os volumes, que não serão pequenos, de forma exequível e eficiente diante das situações e rigores de projeto.

Diante destas constatações é imprescindível fazer a avaliação de volumes e custos envolvidos na retenção, controle e acesso aos dados depositados nas Storages dos Datacenters. É preciso gerenciar a produção de dados e, saber separar o joio do trigo.
Segundo o que tenho lido em artigos nos EUA e na UE, os especialistas – mesmo no paraíso dos Datacenter baratos e dos ultra-links de internet rápida – estão preocupados com os aspectos físicos que se originam nos mega volumes de dados, gerados nas empresas da “Indústria 4.0”.

Traduzindo isso pra realidade Brasileira: usamos os mesmos softwares, lidamos com as mesmas ferramentas e processos, temos uma legislação até mais rigorosa e complexa que a do primeiro mundo e nossa infraestrutura está muito aquém, não só em tecnologia, mas também devido ao “Custo-Brasil”, com impostos elevados e barreiras alfandegárias para importação destas tecnologias. Mas temos que nos adaptar a esta realidade e tentar a todo custo, usar criatividade e inteligência para driblar estes obstáculos.

Algumas Dicas para gerenciar os Dados armazenados:

1. Avaliar o que de fato é o Backup útil da empresa – levar em consideração os dados que são indispensáveis para manter ou reconduzir a operação, em caso de DR – Ideal nesse momento é iniciar um projeto de DRP (Disaster Recovery Plan) – este estudo ira definir o que é de fato este Backup Útil;

2. Verificar nos arquivos armazenados – seja em que tipo de mídia for (HDs, Storages, Fitas, Datacenter, etc.) a existência de arquivos em duplicidade ou versões que não tem mais validade operacional. Este processo pode ser executado através de algum SaaS específico que faça esse trabalho de “expurgo” – cerca de 30 a 40% dos dados retidos são cópias das cópias e/ou versões sem utilidade prática.

3. Avaliar e separar o que é arquivo-histórico ou, documentos para retenção, deste conteúdo – muito comum nas empresas, normalmente são: Imagens, Áudios e Vídeos, Cópias digitalizadas de documentos, documentos ou protocolos digitais, que servem apenas para consultas futuras – Este tipo de arquivo é muito “pesado” e consome a grande parte dos espaços de armazenagem.

4. Criar uma política de Backup – onde fique estabelecido – representado no DRP – quais tipos de arquivos estarão nos canais de armazenagem de dados, a saber: Os ativos na rede, As cópias Backup ativas na Nuvem; As cópias Backup de segurança Offline e Offsite; As que estarão apenas em Fitas de Retenção prolongada (documentos que devem ser retidos por obrigação regulatória ou fiscal, ou mesmo acervos históricos da empresa), lembrando que mesmos estas cópias para consulta apenas em fitas, deve ter backup.

5. Estruturar a Governança destas informações – uma estrutura de arquivamento, busca avançada, responsabilidades e, acessibilidade dos conteúdos – deve-se envolver um grupo multidisciplinar, neste projeto, tais como: jurídico, contábil, o pessoal de T.I., entre outros gestores da corporação e, inclusive, a alta diretoria, para tomada de decisão.

6. Por fim, de posse do DRP, regulamentar as políticas de testes e avaliações permanentes, para garantir a eficiência destes controles.

Uma longa caminhada começa pelo primeiro passo, já dizia alguém importante do passado! Eu sempre digo: a jabuticabeira demora dez anos para começar a produzir, mas se você não plantar, ela não vai produzir nunca! Precaução e canja de galinha não fazem mal a ninguém. Batendo tudo isso no liquidificador, o que fica é um bom projeto de DRP! Boas práticas e políticas adequadas reduzirão, e muito, os problemas que, com certeza, você teria sem esses planejamentos – mãos a obra!

Fontes:

https://pt.wikipedia.org/wiki/Malware

https://pt.wikipedia.org/wiki/Software_como_serviço

https://www.techtarget.com

https://www.lto.org

https://en.wikipedia.org/wiki/Off-site_data_protection

https://searchdisasterrecovery.techtarget.com/definition/disaster-recovery-plan

SOBRE O AUTOR

“Laert Perlingeiro Goulart, é Engenheiro Civil formado pela Universidade Católica de Petrópolis, atuou como empresário da construção civil até 2005 quando tornou-se executivo de uma empresa de Logística, onde atuou ate 2017. Hoje é executivo de uma empresa de T.I. voltada para tecnologia de gestão de documentos, arquivos digitais e backup. Nas horas vagas gosta de tirar fotos e apreciar uma boa cerveja artesanal e compartilha isso no seu Instagram @laert.goulart

Rua Comandante. Vergueiro da Cruz, 119 - Olaria

FALE AGORA CONOSCO

21 97018-8925

Aceitamos Cartão de crédito e débito. Parcelamos em até 3x sem juros.

Fechar
WhatsApp