Um em cada 20 PCs tem malware, alerta Microsoft

Por Computerworld/EUA

Essa foi a proporção de máquinas infectadas encontradas por software de segurança da empresa em um universo de quase meio milhão de micros.

Um em cada 20 dos PCs com Windows que passaram pela análise da ferramenta de limpeza da Microsoft estava infectado com malware, afirmou a empresa na semana passada.

Esta e outras estatísticas foram obtidas pela Microsoft por meio de seu novo Safety Scanner, uma ferramenta gratuita de detecção e limpeza de malware que foi relançada em 12 de maio.

As 420 mil cópias da ferramenta que foram baixadas na primeira semana de sua disponibilidade limparam malwares ou sinais de infiltração de mais de 20 mil PCs com Windows, informou o Centro de Proteção contra Malwares da Microsoft (MMPC) na quarta-feira (25/5). O número representa uma taxa de infecção de 4,8%.

Na média, cada um dos PCs infectados tinha 3,5 ameaças, que a Microsoft definiu ou como malware real ou pistas de que um ataque bem sucedido foi lançado contra a máquina.

Java na mira
Das 10 maiores ameaças detectadas pelo Safety Scanner, sete eram exploits Java, afirmaram Scott Wu e Joe Faulhaber, do MMPC, em blog. Wu é gerente de programa do MMPC e Faulhaber é um engenheiro de software.

Os números reforçam um relatório recente de segurança, divulgado pela Microsoft, que apontou um grande pico em exploits baseados em Java no segundo semestre de 2010. O indicador rastreado pela Microsoft saltou de 1 milhão na primeira metade de 2010 para quase 13 milhões no período seguinte.

A Microsoft afirmou que apenas dois tipos de vulnerabilidades no Java da Oracle foram responsáveis por 85% de todos os ataques a Java na segunda metade de 2010. Não por acaso, essas duas vulnerabilidades aparecem no ranking das dez maiores ameaças da Microsoft nas posições 1 e 6.

Um dos bugs do Java mais explorados foi corrigido em dezembro de 2008 pela Sun – que, depois, seria engolida pela Oracle. O outro foi consertado em novembro de 2009.

Sem surpresa
A Microsoft já fez ecoar o alarme sobre a explosão de exploits Java em outras oportunidades. Em outubro de 2010, Holly Stewart, outra gerente do MMPC, afirmou que o volume de ataques era “assustador” e “sem precedentes”.

Para Marc Fossi, diretor da equipe de resposta a questões de segurança da Symantec, a insistência dos hackers no Java faz sentido. Em uma entrevista no ano passado, o diretor afirmou que “como o Java é tanto multibrowser como multiplataforma, pode ser atraente para hackers”, referindo-se ao fato de o Java ser usado por todo grande navegador nos sistemas Windows, Mac e Linux.

O Safety Scanner encontrou 2.272 PCs com Windows com sinais de um exploit do bug Java mais explorado, chamado de “CVE-2008-5353” no banco de dados de Vulnerabilidades e Exploits Comuns. Dessas máquinas, 7,3% também continham o notório rootkit Alureon, ao passo que 5,7% tinham sido infectadas com um dos programas falsos de antivírus da família “Winwebsec”.

“Na hora em que um usuário baixa e roda o Microsoft Safety Scanner para detectar malware, a máquina já pode ter sido infectada caso estivesse vulnerável à época”, reconheceram Wu e Faulhaber.

O Alureon ganhou destaque em fevereiro de 2010 quando os sistemas Windows XP infectados com o rootkit foram danificados depois de uma atualização de segurança da Microsoft. E o Winwebsec, que é como a Microsoft chama a linha de software antivírus falso que engana a vítima fazendo com que pague por um programa inútil, tem sido ligado ao MacDefender, um scareware que tem assombrado os usuários de Mac.

O Safety Scanner, que entrou no lugar de uma velha ferramenta online, usa a mesma tecnologia e assinaturas de detecção que o programa gratuito Security Essentials, também da Microsoft, e de seu produto corporativo Forefront Endpoint Protection.

O scanner gratuito pode ser baixado no site da Microsoft.

(Gregg Keizer)
fonte: uol.com.br
****************************************
 
Anúncios

Criadores de conteúdo on-line precisam ser orientados, diz professor

JORDANA VIOTTO

O crescimento da internet no mundo tem levantado questões sobre privacidade, liberdade de expressão, segurança e confiança on-line, inclusive dentro das empresas.

Na tentativa de desvendar alguns desses pontos, o Fórum Econômico Mundial, a escola de negócios francesa Insead, a empresa de pesquisas comScore e o Oxford Internet Institute desenvolveram a pesquisa “O Novo Mundo da Internet”, divulgado em abril de 2011.

Soumitra Dutta, professor do Insead e um dos coordenadores do relatório, concedeu entrevista à Folha sobre aspectos das mudanças do ambiente on-line e hábitos dos profissionais diante dessas ferramentas dentro das empresas.

Muitas empresas utilizam conteúdo gerado por usuários como ferramenta de comunicação interna e de gestão do conhecimento. A pesquisa, no entanto, mostra que poucas pessoas, em geral, produzem conteúdo on-line. Podemos supor que muitas dessas iniciativas podem fracassar?

Isso é um fenômeno mundial. Poucas pessoas produzem conteúdo enquanto muitas consomem esse conteúdo. Isso vale para nações desenvolvidas, como os EUA, e para corporações também.

As políticas de gerenciamento de comunidades nas empresas precisam levar em consideração essa tendência e selecionar líderes para manter a comunidade viva.

É preciso trabalhar com os poucos criadores ativos de conteúdo, mas ele precisa ser relevante para os muitos que vão ler, para que se beneficiem ao consumi-lo.

Na pesquisa, muitas pessoas apoiam a regulamentação da internet pelo governo. Isso não seria arriscar a liberdade de expressão e também os negócios baseados na web?

Deve haver um equilíbrio exato de regulação e abertura on-line. Acredito que é importante preservar a liberdade de expressão. O que aconteceu no Egito [o governo desconectou os servidores em janeiro, durante as revoltas populares pela saída do então líder Hosni Mubarak] é um bom exemplo a ser citado.

Mas os governos perceberam o valor da internet. Tanto o novo governo no Egito como o da Tunísia [onde a população foi às ruas pela saída do general Ben Ali do poder] estão utilizando a rede para se comunicar com os cidadãos.

A respeito da segurança, muitas pessoas não tomam precauções em suas atividades on-line –inclusive nas empresas, onde “alguém deve estar tomando conta disso”. Você diria que as empresas precisam investir na conscientização dos empregados a respeito da necessidade das precauções on-line?

Educação é vital nesse ponto. Os colaboradores precisam ser educados sobre os riscos, inclusive de postar conteúdo on-line. Esse conteúdo pode ser inapropriado ou mal interpretado. Uma comparação que podemos fazer é com a tatuagem: o que colocamos na internet nunca sai.

fonte: Folha.com

*******************************

Leia: Avanço da tecnologia exige especialização

Brasil é o sexto maior em TI, diz IDC

RIO DE JANEIRO – O Brasil é, atualmente, o sexto maior mercado de tecnologia da informação (TI) do mundo, com um mercado interno que movimentou, no ano passado, US$ 81 bilhões, de acordo com a empresa de consultoria International Data Corporation (IDC), líder nos segmentos de tecnologia da informação e telecomunicações. O resultado equivale a cerca de 4% do Produto Interno Bruto (PIB), soma de tudo o que é produzido no país.

As exportações do setor somaram no mesmo período US$ 2,5 bilhões. Mas, para o presidente da Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação (Brasscom), Antonio Gil, para tornar-se protagonista no cenário mundial, nas duas próximas décadas, o país terá de vencer alguns desafios, entre os quais a desoneração da folha de pagamentos. Gil participou hoje (19) do 23º Fórum Nacional, no Rio de Janeiro.

“O Brasil é muito competente porque o uso de tecnologia da informação é feito com supremacia mundial em várias áreas, como indústria financeira, governo eletrônico e, inclusive, na indústria manufatureira. E o mercado, que é, hoje, de US$ 1,5 trilhão, globalmente, será de US$ 3 trilhões em 2020”.

Na avaliação de Gil, novas oportunidades serão abertas nesse cenário para o Brasil nas áreas de saúde, educação, segurança, bancos, principalmente, devido a fatores como o crescimento do grupo de países denominado Brics (Brasil, Rússia, Índia, China e África do Sul), a mudança demográfica e as novas tecnologias.

Para o empresário, deve-se reduzir o custo da folha de pagamento, treinar pelo menos 725 mil profissionais até 2020, investir em infraestrutura tecnológica e estimular a inovação. Ele enfatizou que é preciso ter uma “mentalidade de inovação, porque tudo que nós estamos usando hoje, amanhã será obsoleto”.

Para 2020, a projeção da Brasscom é que o mercado interno de TI alcançará entre US$ 150 bilhões e US$ 200 bilhões, o que elevará a participação do setor no PIB entre 5,5% e 6%. As exportações deverão subir para US$ 20 bilhões.

fonte: info.abril.com.br

****************************

Conheça as Soluções em TI da Consultoria DANRESA

Como não perder os benefícios financeiros da virtualização

Por Kevin Fogarty, da CIO-EUA

Chegar a uma saturação da capacidade de economia proporcionada por infraestruturas virtualizadas é situação comum em empresas. Saiba como evitar.

Virtualizar e consolidar servidores de data centers proporcionam um benefício financeiro tão claro para as organizações que há poucas companhias, em qualquer indústria, para as quais a tecnologia não é aderente. Mas algumas que começaram projetos de virtualização para cortar custos, sem planejar uma segunda fase de migração, em que os gastos com ferramentas proporcionam ainda mais benefícios, podem ficar presas na primeira etapa, sem aproveitar todo seu potencial.

O benefício financeiro de obter de dez a 20 servidores virtuais pelo preço de uma caixa física impulsionou muitas companhias para a migração. Mas muitas, ao virtualizar de 25% a 35% de todos os servidores físicos, chegam a uma situação na qual as vantagens de custo do servidor virtual sobre o físico desaparecem. Em inglês, isso é chamado de “VM Stall”, ou limite da virtualização.

De acordo com o analista da Forrester, James Staten, esse quadro é gerado por alguns custos sutis e questões organizacionais que afetam diretamente o projeto de virtualização. “As companhias podem chegar a uma migração de 50% em seu parque de servidores com a mesma mensalidade do mundo físico. A previsão de custos é só em questões óbvias, como licenças, número de máquinas etc. Além desse ponto, chegam-se às questões de desempenho e gerenciamento de capacidade, que precisam de suporte. As companhias não levam isso em consideração para planejar os projetos”, descreve.

Segundo o pesquisador e vice-presidente do Gartner, Chris Wolf, planejar a virtualização de cada carga de trabalho em cada servidor, sem modificar os requisitos de planejamento de capacidade de TI ou a forma como os recursos computacionais são alocados, além da previsão de horas de trabalho dos profissionais, resulta em um departamento de TI cheio de processos duplicados, com queda brutal no retorno sobre o dinheiro gasto na migração.

“Tentar replicar a mesma estrutura que era usada no mundo físico levará a empresa a um ciclo de diminuição dos retornos rapidamente”, diz Wolf. Manter o projeto na trilha certa requer mudanças organizacionais e tecnológicas, além de manter os dois lados coordenados de acordo com cada estágio da migração. Aqui vão alguns conselhos para evitar a perda de benefícios financeiros durante as quatro fases-chave dos projetos:

Fase 1: eficiência técnica e consolidação
Segundo o analista da IDC, Gary Chen, a primeira onda da virtualização é empolgante, pois economiza muito mais dinheiro, de forma muito mais rápida, do que qualquer outra fase de migração e operação de uma infraestrutura virtual.

O benefício de eliminar dez servidores físicos, substituindo por um servidor maior, virtualizado e mais automatizado, dá à equipe de TI e às áreas de negócios a falsa sensação de sucesso. Segundo Chen, isso gera expectativas fora da realidade para o futuro.

Muitos departamentos se prendem às mesmas métricas do início para estimar o sucesso, o que significa focar em quão densamente as máquinas virtuais podem ser empacotadas em um host físico, sem investir em ferramentas de gerenciamento ou treinamento que dá aos gerentes de TI uma melhor ideia de como alocar recursos virtuais, diz Chen.

“As pessoas precisam tirar da cabeça de que devem se orgulhar da sua taxa de migração ou quantas máquinas físicas consegue retirar de um ambiente, isso não diz nada”, diz Staten, que completa: “A real necessidade é chegar ao ponto no qual se entrega alta eficiência, altamente sustentado por métricas de utilização e picos de todo o pool de recursos, com alto grau de controle sobre toda a infraestrutura”.

Fase 2 : escolha de alvos e simplificação da administração
A próxima fase da migração requer conhecimento mais específico sobre o que cada máquina virtual está fazendo, para qual unidade de negócios e quais recursos ela exige.

Segundo Staten, isso requer mais do que densidade e retorno sobre investimento (ROI). Requer mudanças na administração da TI e no suporte para melhoria de processos como gestão de mudanças, provisionamento e gerenciamento de incidentes. Tudo isso não é compatível com os antigos métodos organizacioanis.

Segundo Wolf, sem a habilidade de construir um inventário de recursos mais detalhado do que simplesmente a lista de servidores físicos disponíveis, não há forma inteligente de distribuir máquinas virtuais ou cargas de trabalho pelos servidores.

Para chegar a isso tudo, são necessárias ferramentas de gerenciamento, dando aos administradores de sistemas a responsabilidade de programar as máquinas virtuais de acordo com as unidades de negócios que as utilizam, sem se importar com a localização física das mesmas.

A falha nesse aspecto pode levar a uma falta de uso eficiente dos recursos, com duplicatas, trabalho dobrado e lacunas na tomada de responsabilidade sobre as tarefas, tudo isso gerando enormes desperdícios para as empresas à medida que máquinas virtuais flutuam sem que haja um responsável por elas.

Para evitar tudo isso, a empresa precisa também pensar em automação, gestão de ciclo de vida, entre outras ferramentas presentes no mercado.

Fase 3: automação de processos
Segundo Wolf, restringir a proliferação de máquinas virtuais sem controles adequados não restringe a ambição de migração da empresa. Pelo contrário, ajuda no processo.

A vantagem real das infraestruturas virtuais é a flexibilidade. Para garanti-la, o departamento de TI tem de estar pronto para lançar mão de portabilidade de máquinas virtuais, gestão de recursos que atinjam a infraestrutura em profundidade, provisionamento automatizado e gestão de mudanças, ou não haverá eficiência.

A medida, aqui, não deve ser quão alta é a utilização de um único servidor ou grupo de máquinas virtuais para rodar uma aplicação, mas qual é o grau de utilização de todo o data center.

Isso requer conhecimento e gestão em tempo real dos recursos. Para isso, é preciso saber como usar os instrumentos certos para monitorar e alocar os recursos para melhorar o desempenho para cada carga de trabalho, cada servidor, cada data center e cada servidor físico, de acordo com as melhores práticas para virtualização do Gartner, publicada em 2009.

Chen alerta, no entanto, que além  do uso inadequado das máquinas virtuais, o uso excessivo ou não supervisionado de licenças também aumenta custos de maneira significativa.

Uma das soluções encontradas para muitas empresas é renegociar acordos de licença justamente por essa razão. É muito fácil para usuários finais criar servidores, ou instâncias de aplicações, que consome licenças, deixar em uso e lançar mais uma na manhã seguinte.

Segundo o vice-presidente e analista da Forrester, Galen Schreck, outra questão de processos é a granularidade. Muitas empresas reconhecem o potencial benefício da granularidade, mas não conseguem atingir esse degrau, em parte por conta da limitação de ferramentas, ou porque não têm o pensamento avançado para ser suficientemente confiante para atingir isso.

Sem gestão de recursos granulares e um alto nível de gerenciamento baseado em políticas, a maioria das empresas vai ficar limitada na marca de 50% de migração para o ambiente virtualizado, ou desperdiçará mais dinheiro do que economizará tentando ultrapassar essa barreira.

Fase 4: eficiência de custos
Apesar da notada falta de eficiência na automação das empresas, 36 de cada 100 dólares gastos em servidores físicos em 2014 serão direcionados para hardware voltados ao host de servidores virtuais, de acordo com estudos da IDC, de dezembro.

O estudo prevê que dos 2,2 milhões de servidores que entraram no radar representam, na verdade, 18,4 milhões de máquinas virtuais, uma média de 8,5 máquinas virtuais por host em 2014.

Os números representam mudanças no departamento de TI, mas as empresas devem pensar em novas formas de prestar as contas, traduzindo os custos da virtualização para as unidades de negócios. “Se as pessoas olhassem só para os custos iniciais, o Hyper-V, ferramenta de virtualização da Microsoft, venderia muito mais do que vende hoje”, diz Chen.

Uma máquina virtual extra pode dar a impressão de não causar custos pois não requer custos de capital, mas Staten alerta para os custos de licenciamento, uso de recursos, administração, armazenamento e todas as outras questões que não são adequadamente transferidas para a análise do orçamento para serem entendidas pela área de negócios.

A falha em entender custos reais da virtualização pode minar até mesmo um projeto bem-sucedido do ponto de vista técnico.

fonte: idgnow.uol.com.br

************************

Conheça as soluções de Virtualização da DANRESA Consultoria.

Cloud computing é usada para tratamento de animais no Japão

fonte: uol.com.br

O japonês Tatsuhide Miyazaki é o primeiro veterinário a tratar um aninal com a ajuda de um sistema de computação em nuvem, de acordo com a agência de notícias AFP. O “paciente” pioneiro é um poodle branco. O software, chamado de Pet Care Cloud, foi desenvolvido a partir de uma parceria entre a Associação Veterinária de Tóquio e a gigante Fujitsu.

Os exames e os resultados são registrados automaticamente no sistema. Com isso, os hospitais da região poderão consultar a qualquer momento o tratamento dos animais de Tóquio desde a primeira visita e também todo o histórico médico veterinário. O sistema de compartilhamento também permite contato entre os médicos.

O Pet Care Cloud ainda ajuda na tomada de decisões, apontando as possíveis causas de uma determinada doença, métodos de prevenção e também indica medicamentos.

******************************

Conheça as soluções em Nuvem (Cloud computing) da DANRESA.

Brasileiros estão entre os mais temerosos com segurança

fonte: computerworld.uol.com.br

De acordo com índice de segurança da Unisys, País só perde para a Colômbia em preocupação com diversas ameaças, apesar de ligeira queda em relação há 6 meses.

Pesquisa da Unisys sobre segurança manteve um quadro estável por quase cinco anos, mas mudou no último relatório divulgado, com aumento súbito nos quatro índices avaliados: pessoal, nacional, financeira e Internet.

Em março de 2011, a segurança financeira (bancos e cartões de crédito) chegou ao topo das preocupações com o índice 159, ante 142 seis meses antes. Seguindo a mesma base de comparação, a preocupação com segurança pessoal foi de 129 a 151, o temor em relação à segurança nacional evoluiu de 123 para 145 e a área de internet chegou ao índice de 135, número significativamente maior ao registrado há um semestre (112).

O estudo também foi separado por países e o Brasil ocupa um surpreendente segundo lugar no índice geral de desconfiança entre os 14 países pesquisados, com um índice de 180. Mas, ao contrário da tendência mundial, a taxa de preocupação no País caiu, já que há seis meses o índice estava em 185. O país mais preocupado é a Colômbia, que aparece pela primeira vez no estudo, com 186 de índice.

Na divisão por áreas, os brasileiros mostram-se bem preocupados com segurança nacional (199), segurança pessoal (184) e segurança financeira (184). O menor dos índices, ainda considerado alto se comparado à média do estudo, é a segurança de internet, no qual o Brasil obteve índice de 155.

A pesquisa identificou também quais são as ameaças que provocam mais medo nos brasileiros: fraudes em cartão de crédito aparecem em primeiro lugar, seguido de epidemias, roubos de identidade e segurança nacional.

Ainda que a área de segurança seja a de menor fonte de preocupações para os brasileiros, ela ainda é alta. Segundo o estudo, 18% dos brasileiros pesquisados se mostram extremamente preocupados com vírus e e-mails não solicitados e 43% se declaram muito preocupados.

Curiosamente, os índices de preocupação quanto a compras online e internet banking são menores, mas ainda altas. A pesquisa mostra que 17% dos brasileiros estão extremamente preocupados e 36% muito preocupados com esses elementos.

A maior preocupação brasileira, no entanto, é quanto a roubo de identidade. O levantamento indicou que 77% dos brasileiros estão seriamente preocupados com roubo de identidade.

Os países que apresentam números de contraste foram Austrália e Holanda, que tiveram queda nos quatro índices de preocupação. A Holanda, menos preocupada de todos os países, teve pontuação de 64 no índice, contra um valor médio global de 147.

************************************

Conheça os serviços de Service Desk e Web Filtering oferecidos pela DANRESA Consultoria.

Aprenda a criar senhas fortes e proteja suas contas dos cibercriminosos

fonte: uol.com.br/

Por PC World/US

Maioria dos usuários usa o mesmo código para diversos serviços e não é criativa na hora de criá-lo. Aprenda truques para não cair nesse erro.

A senha de sua conta de e-mail é a última linha de defesa que você tem em se tratando de privacidade; se um usuário inescrupuloso desvendá-la, ele poderá alterar seus códigos para redes sociais, portais de comércio eletrônico ou até do internet banking, a partir da opção “esqueci minha senha”.

É tentador utilizar o mesmo segredo para todas suas contas, mas, dessa forma, a vulnerabilidade online aumenta consideravelmente. Quando ela é descoberta, tudo o que você tem na Web fica aberto ao invasor. Dado os recentes acontecimentos, como a invasão da rede PSN, esta talvez seja a hora de aprimorar sua segurança, garantindo que cada uma de suas senhas sejam únicas e eficazes.

Existem alguns bons programas para organizar o possível caos, como o KeePass, que criptografa todos os seus códigos e os armazena em uma base de dados a qual só você tem acesso – a partir de uma chave-mestra. Outra opção é o LastPass, que funciona como uma extensão para o browser – roda nos mais populares – e ainda sincroniza seus códigos entre os vários computadores em que estiver instalado. O problema, lógico, é que a nuvem pode não ser tão confiável quanto um pen drive – devidamente protegido – que sempre está contigo.

Usar um gerenciador de senhas é uma ótima forma de melhorar sua segurança online, mas não é um modelo perfeito. A muralha praticamente intransponível é um código que você nunca guarda em um papel, em um HD ou na nuvem, uma sequência de letras, números e símbolos que mesmo você não sabe ao certo até ter de escrevê-la. Isso, a princípio, pode parecer confuso, fora de alcance, mas, com alguns truques mnemônicos, tudo fica mais fácil.

Uma senha acima de todas
Na verdade, é muito fácil criar uma senha forte; basta seguir certas regras. Antes de mais nada, precisamos de uma base: uma mistura de letras maiúsculas e minúsculas, números e até sinais gráficos para complicar um poucos as coisas. Escolha uma frase fácil de lembrar e sinta-se livre para ser tão criativo quanto consiga. Pelo bem da simplicidade – e da didática – irei com um dos meus pratos favoritos: chicken adobo (frango adobo).

Certifique-se de que sua “palavra código” (passphrase) tenha ao menos oito caracteres e evite tópicos obviamente memoráveis como nomes próprios, datas de aniversários e cidades natal. Também é interessante evitar o uso de uma única palavra e a troca de alguns dos caracteres por símbolos – as ferramentas dos hackers são sofisticadas o suficiente para superar esse truque. Prefira uma frase secreta – várias palavras colocadas juntas – em vez de uma senha; isso torna mais difícil o trabalho dos hackers para descobrir seu código ao tentar todas as palavras do dicionário.

Agora que escolheu uma palavra código, você precisa colocar essa frase em uma única corrente (como chickenadobo), e então coloque algumas letras maiúsculas fáceis de lembrar (ChickenAdobo). Depois, apimente mais a base do seu código com alguns caracteres aleatórios para manter as coisas interessantes (Ch!cken@dob0).

Depois de definir seu código base, é preciso memorizá-lo e usá-lo como uma chave mestra que vai destravar sua conta em qualquer site desde que você se mantenha firme a algumas regras simples. Para criar a senha mais forte possível, vamos inventar um padrão de nomeação fácil de guardar para gerar uma senha única para todos os seus cadastros.

Por exemplo, vamos dizer que decidi usar sempre a primeira e quarta letra do nome de domínio no meio da minha passphrase, deixando a primeira maiúscula e a última minúscula. Isso significa que minha senha única no Facebook seria “Ch!ckenFe@dob0”, enquanto minha conta no Hotmail exigiria a senha “Ch!ckenHo@dob0”.

Vê o padrão? Invente algo parecido e terá uma senha única alfanumérica para todo site. Uma que é fácil de lembrar, mas quase impossível para os hackers descobrirem. Nenhuma senha é perfeita, mas ter sua própria frase única e alguns truques mnemônicos já é um grande passo para manter sua privacidade online intacta.

(Alex Wawro)
*********************************