O USB, acrônimo para Universal Serial Bus, é um dos padrões mais
inovadores no que diz respeito à conexão de hardware surgidos nos
últimos tempos. Se antes dele um dispositivo normalmente precisava de
uma placa específica para funcionar, agora basta a instalação de um
driver próprio para que o gadget funcione.
Em alguns casos, dependendo do dispositivo e do sistema operacional
utilizado, você precisa apenas espetá-lo em uma entrada USB, aguardar
alguns instantes até a instalação automática do driver e pronto — o
famoso “ligar e usar” (ou “plug and play”).
Webcams, pendrives, HDs portáteis, impressoras, fones de ouvido,
smartphones e tablets são apenas alguns dos equipamentos que contam com
conexões USB. É bem provável que você tenha alguns desses aí em sua casa
— e é bem provável também que às vezes falte espaço para ligar tanta
coisa ao seu PC.
127: o número mágico
Se você tem mais dispositivos do que entradas em seu PC, vai precisar
de um hub. Ele nada mais é do que um “pente” no qual estão várias
outras entradas USB, permitindo um melhor aproveitamento das portas
existentes no gabinete do seu computador.
O que você provavelmente não sabia é que é possível conectar até 127
dispositivos simultaneamente em um único PC. Sejam lá quais forem os
gadgets, 127 deles poderão funcionar ao mesmo no seu computador (se a
máquina vai aguentar rodar todos eles, aí já é outra história). Vale
lembrar também que a maioria das fontes comuns de alimentação não vão
aguentar tantos dispositivos conectados assim, portanto, não tentem isso
em casa.
Por que 127?
Você pode estar se perguntando o motivo de um computador suportar
“apenas” 127 conexões USB. A resposta para isso é relativamente simples:
cada dispositivo espetado em um PC é identificado por uma sequência
binária de sete dígitos.
Se ela é uma sequência binária, isso significa que os números podem
ser apenas “1” ou “0”, deste jeito, por exemplo: 0101010. Isso nos diz
que são possíveis 128 combinações diferentes, e como a sequência inicial
(0000000) é reservada para a configuração inicial, sobram 127
combinações possíveis.
É bem provável que você não encontre um gabinete com 127 entradas
USB, portanto, basta procurar por hubs em lojas de informática. É
possível encontrar modelos com preços e capacidades variadas. Se você
gosta de gambiarras, veja o Área 42 onde ensinamos a adaptar um hub USB em um teclado.
O Google Now pode se tornar a grande ferramenta do Android
no futuro. Quem afirma isso são os próprios engenheiros da companhia,
que trabalham para tornar o recurso um verdadeiro auxiliar, se adaptando
às suas necessidades e não fazendo com que você tenha que modificar os
seus hábitos de acordo com o funcionamento do software.
Introduzido pela primeira vez no Jelly Bean,
no último mês de junho, o recurso foi pensado para oferecer a
informação que você pode precisar, sem que para isso seja preciso pedir
pelo conteúdo. A experiência transforma por completo o processo de
busca, fazendo com que o usuário poupe tempo e tenha resultados mais
eficientes com menos trabalho.
Mais do que uma simples busca
Em entrevista ao site The Verge,
Hugo Barra, diretor de produtos do Android, exemplifica como esse novo
tipo de buscas deve funcionar. Suponha que você esteja procurando uma
exposição em um museu. O processo natural seria digitar o nome dessa
exposição em um site de buscas e, como resultado, você obteria links
explicando primeiramente do que se trata o evento em questão.
Com o Google Now, a ideia é que os resultados possam ser
contextualizados, ou seja, se antecipem às próximas perguntas que você
poderia fazer. Assim, o sistema já pode responder para você itens como
onde essa exposição está acontecendo, até quando ela vai ficar aberta ou
como você pode fazer para comprar ingressos ou chegar até ela.
Dessa forma, a ideia não é fazer com que você precise buscar quatro
ou cindo termos antes de encontrar todos os resultados que deseja, mas
sim que, a um único comando de voz, você possa ter como resposta tudo
aquilo que desejava desde o princípio. É como se o sistema operacional
aprendesse a “pensar” como um ser humano.
Um exemplo ainda mais simples pode ilustrar isso. Quando você
pergunta para alguém “você tem horas?”, a resposta que você espera é que
horas são, e não apenas um “sim” ou “não”. O que o Google
está tentando fazer é compreender as suas perguntas, mas de um modo que
seja possível dar respostas mais completas e — por que não? —
inteligentes para o usuário.
A ideia é coletar todas as informações dos serviços da Google que
você utiliza e reuni-las em uma espécie de central. Tudo isso, é claro,
com a sua permissão. Assim, por exemplo, o serviço pode partir do seu
email para checar dados como confirmações de voos, reservas de hotéis,
agendamento de restaurantes e pedidos de encomendas para saber um pouco
mais sobre você.
Se você mora em Curitiba, mas estará em São Paulo no próximo final de
semana, talvez seja útil saber que aquele restaurante que serve a sua
comida preferida estará com descontos especiais. Baseado em seu
comportamento de usuário, o Google será capaz de se antecipar às suas
necessidades, oferecendo quando possível algo mais além do que você
poderia esperar.
Para que seja possível transformar os seus pedidos de voz em termos
escritos passíveis de busca pelo algoritmo do Google, a empresa tem
aperfeiçoado diversas ferramentas. E isso não passa apenas por
reconhecimento de voz, mas sim pelo entendimento da linguagem natural do
ser humano e tudo aquilo que vem agregado a uma palavra dentro de um
determinado contexto.
Em um único app, são combinados elementos como pesquisa por voz que
entende a fala de um ser humano do mesmo modo que o cérebro, compreensão
do contexto do que é dito e, em uma escala maior, entendimento de quem
você é, onde está e o que está procurando. Se depender da Google, você
ainda vai ouvir falar muito do Google Now no futuro.
Não faz nem um dia que o Windows 8 foi lançado
e a Microsoft já teve que suspender as vendas do sistema. A empresa
havia divulgado o valor de R$ 69 durante a apresentação do produto, mas,
na hora da compra, muitos consumidores pagaram R$ 83,98 pelo Windows 8
Pro.
Até o momento desta publicação, a venda do Windows 8 estava suspensa no site oficial da Microsoft. Na página, uma mensagem em letras garrafais informa “Em breve... o novo Windows”. Conforme notícia do Tecnoblog, a empresa diz estar ciente do erro e publicou a seguinte mensagem:
“A Microsoft Brasil informa que identificou o erro no valor
cobrado pela atualização do Windows 8 Pro via download. Tão logo
identificado o problema, o site foi retirado do ar. A empresa está
trabalhando na solução dessa questão e pede desculpas pelo inconveniente
causado.”
Microsoft deve explicações ao Procon
Há pouco, o site G1
relatou que o Procon de São Paulo vai notificar a Microsoft Brasil
sobre o erro no preço e que a companhia tem até quarta-feira (31) para
apresentar o material de divulgação com os detalhes sobre a venda do
Windows 8.
Apesar de não contar com publicidade em excesso (volta e meia
aparecem termos nos “Trending Topics” ou tweets promovidos no seu
mural), o Twitter está preocupado com o direcionamento de seus anúncios – e vai usar o “chute” para saber se você é homem ou mulher.
É isso aí: a partir de hoje, como o preenchimento da opção de gênero
não é obrigatória na criação de perfis (isso poderia ser um problema
para empresas, por exemplo), o Twitter terá que fuçar informações como
seu nome e quem você segue para definir que tipo de anúncio é mais
adequado para aparecer durante a navegação.
A partir disso, é possível enviar mensagens sobre cosméticos apenas para as mulheres, por exemplo. Em uma postagem no blog de publicidade
da rede social, é dito que a taxa de acerto nesses palpites é de 90%,
enquanto os outros 10% ficam de fora desse direcionamento.
Desde que os
processadores com mais de um núcleo começaram a surgir nos desktops em
2005, essa dúvida vem permeando a mente dos consumidores, principalmente
com a explosão de lançamentos que ocorreu nos últimos anos. O senso
comum diz que, quanto mais núcleos, melhor. O problema é que isso nem
sempre é verdade.
A teoria diz que mais núcleos podem quebrar o processo em partes menores, sendo que cada um dos cores
fica responsável por resolver apenas parte do processamento. Com isso, o
consumo de energia, em teoria, também é menor, já que a CPU precisa
fazer menos esforço para realizar aquela atividade específica.
Vamos começar com um pouco de teoria e um exemplo simples. Para que
você realize uma tarefa no computador, você acessa um software. Para que
ele faça o que você precisa, é necessário que ele envie os comandos
para o processador, que é quem vai executar as tarefas, uma por vez.
Portanto, quem decide como a CPU vai trabalhar é o software em execução
no momento.
Esse software é como se fosse o gerente de uma fábrica; o processador
seria a linha de produção; os operários seriam equivalentes aos núcleos
do processador.
O primeiro operário (núcleo 1) recebeu uma tarefa de seu gerente
(software). Prontamente, ele atendeu a ordem e conseguiu concluir o
processo.
Agora imagine que existem dois funcionários trabalhando nessa mesma
linha: isso seria o equivalente a um processador dual-core. Caso o
gerente mande uma tarefa apenas para o primeiro operário, o segundo fica
sem ter o que fazer. Ele fica apenas sentado e tomando cafezinho
enquanto o primeiro se arrebenta de trabalhar por conta.
Para resolver esse problema, o gerente deveria ter dividido a tarefa
em duas partes e mandado cada um deles fazer uma delas. Dessa maneira, o
processo seria concluído em menos tempo e com maior eficiência.
E onde queremos chegar com esses exemplos? Simples: um processador
com muitos núcleos só é eficiente se os aplicativos souberem utilizar
esses núcleos; mas infelizmente não é isso o que acontece em muitos
casos, mesmo que processadores multi-core não sejam exatamente uma
novidade.
Porque nem todos os aplicativos suportam múltiplos núcleos?
A resposta é simples: porque dá mais trabalho programar. Para um
software funcionar com mais de um núcleo, os desenvolvedores precisam
inserir muito mais linhas no código dos aplicativos. Em vez de
simplesmente mandar o software executar uma função específica pelo
processador, é preciso determinar qual núcleo vai fazer o que e quando.
Quanto mais núcleos, mais complicada é essa tarefa.
Apesar de a maioria dos desenvolvedores já trabalhar com esses
recursos, não são todos que o fazem. Muitas vezes porque é muito caro
perder tempo com programação apenas para otimizar os processos e outras
por motivo de compatibilidade.
Vejamos os smartphones Android, por exemplo. Um dos aparelhos mais
conhecidos e poderosos da atualidade é o Galaxy S3, da Samsung, que
possui um processador quad-core. O problema é que existem centenas de
aparelhos que utilizam o sistema Android. Coloque-se no lugar de um
desenvolvedor: se você fosse desenvolver um aplicativo para o sistema,
faria ele compatível com o maior número de aparelhos ou com apenas um ou
dois?
É nesse ponto que a Apple leva certa vantagem, pois possui poucos
modelos de aparelhos. Com isso, é possível otimizar o desempenho de uma
maneira mais específica para o iPhone 5 do que para o Galaxy S3, por
exemplo.
Mais núcleos ou núcleos mais rápidos?
A velocidade era o parâmetro mais utilizado alguns anos atrás para
medir o desempenho dos processadores, e na época até fazia sentido,
pois, quanto mais MHz tinha uma CPU, melhor. Infelizmente a tecnologia
chegou a um ponto em que apenas aumentar o ciclo de operações por
segundo dentro das máquinas tornou-se quase inviável, principalmente
devido ao consumo de energia e aquecimento dos componentes.
Baseando-se nisso, os engenheiros desenvolveram métodos de aumentar o
desempenho dos processadores adaptando mais recursos, melhorando a
tecnologia e tornando os equipamentos mais eficientes. No caso dos
processadores com vários núcleos, eles tornaram-se melhores em executar
várias tarefas simultaneamente.
Ou seja, um processador com múltiplos núcleos é mais recomendado para
quem é adepto da multitarefa. No caso de se executar apenas um
aplicativo e, principalmente, se esse aplicativo não for otimizado para
aproveitar todos os núcleos disponíveis, um processador com core único e
um clock maior é mais recomendado.
Muitos núcleos gastam menos ou mais energia?
Existe outra analogia que ajuda a responder essa pergunta: imagine
que o processador é o motor de um carro e cada núcleo é um cilindro.
Qual motor seria mais econômico, o que tem quatro cilindros ou o que tem
oito? Salvas as devidas proporções, o carro de oito cilindros é
realmente mais poderoso quando você pisa no acelerador, mas, para
oferecer toda a potência que ele carrega, ele consome mais gasolina.
Seguindo esse raciocínio, é fácil imaginar que, quanto mais núcleos,
maior é o consumo.
Quem discorda dessa afirmação é a NVIDIA, que fabrica os
processadores da linha Tegra para smartphones. Segundo a empresa, os
núcleos são desativados quando não são utilizados e voltam à atividade
apenas quando algum software exige mais poder de fogo.
Hyper-threading: um núcleo real, dois núcleos lógicos
Quando a fabricação de um processador com dois ou mais núcleos ainda
era muito cara, a Intel desenvolveu um sistema interessante de
multiprocessamento. Trata-se do Hyper Threading, em que o processador
possui apenas um núcleo físico, mas o sistema operacional enxerga dois. É
como se o mesmo núcleo pudesse fazer duas coisas ao mesmo tempo. Desse
modo, a execução de várias tarefas simultâneas tornou-se mais eficiente.
Quem é o responsável por gerenciar esses recursos é o sistema
operacional, que envia dois processos ao mesmo tempo para o processador.
Portanto, o sistema operacional precisa ser compatível com
processadores de núcleos múltiplos e também com a tecnologia HT.
Esse sistema passou a ser utilizado na maioria dos processadores da
linha Core, da Intel. Graças a isso, temos processadores com 2 núcleos
físicos mas 4 núcleos lógicos, como o Core i3, e processadores com até
12 núcleos, sendo 6 deles físicos e 12 lógicos, como é o caso do Core i7
980X.
Existe uma vantagem real em ter um processador com vários núcleos?
Como já foi dito anteriormente, em teoria, quanto mais núcleos,
melhor. Mas para sustentar essa afirmação é preciso que todo o
ecossistema seja preparado para isso. O número de aplicativos que
suporta vários núcleos aumenta a cada dia, portanto, é provável que em
pouco tempo a diferença de se ter vários cores em um processador seja um diferencial muito maior do que é hoje.
Mesmo que os sistemas operacionais modernos, como o Windows 7,
gerenciem o sistema com muito mais eficiência distribuindo a força de
processamento entre todos os núcleos, dificilmente isso vai ser tão
eficiente quanto um software que pode trabalhar nativamente com
múltiplos cores.
A questão muda um pouco de figura no caso dos smartphones. Em nossa análise do iPhone 5,
colocamos o Galaxy S3 de frente com o aparelho da Apple e mostramos que
o dobro de núcleos não é necessariamente melhor. O que interessa mesmo é
o que o sistema operacional e os aplicativos façam com o poder
disponível.
Nos desktops temos um ótimo exemplo: enquanto alguns processadores da
AMD trazem oito núcleos, os concorrentes da Intel trabalham com apenas
quatro. Mesmo assim, os processadores da Intel são mais eficientes (na
geração atual). Isso acontece pelo conjunto da arquitetura como um todo e
não simplesmente pela quantidade de cores que os processadores possuem.
Lembre-se: uma linha de produção com muitos funcionários, todos
inexperientes, é menos produtiva do que uma linha com poucos
funcionários, porém experientes.
Portanto, antes de adquirir um novo equipamento, seja PC ou
smartphone, tenha em mente que a sua escolha precisa contemplar o
sistema como um todo e não apenas a quantidade de núcleos encontrada no
processador.
Um dos virais mais “bem-sucedidos” da última semana no Facebook
é, sem dúvida, aquele que ensina você a consertar um problema de
privacidade da rede. Em suas últimas atualizações, o Facebook mostra
para todos os seus contatos tudo aquilo que você curte ou comenta, o que
parece ter desagradado muita gente.
Depois da “descoberta”, muitos usuários começaram a compartilhar uma
mensagem que ensinava a resolver o problema, porém, a dica não resolve
de fato essa questão. Seguindo a recomendação, você deveria ajustar a
visibilidade de conteúdo do amigo que publicou a mensagem, deixando de
seguir aquilo que ele curte e comenta na rede.
Contudo, fazendo isso, você deixaria de receber esse tipo de
atualização apenas desse amigo. Além disso, tudo o que ele publicar na
rede de forma pública continuará chegando à sua Linha do tempo.
Para aprimorar as configurações de privacidade no Facebook, leia os seguintes artigos:
Embora a
solução mais prática para deixar de receber determinado tipo de conteúdo
seja remover uma pessoa da lista de amizades, nem sempre você pode
fazer isso sem consequências na vida real. Como esse método é um pouco
drástico demais, o melhor a se fazer é simplesmente limitar o conteúdo
que você consegue ver de pessoas específicas.
Faça você mesmo
Ao identificar uma mensagem que você gostaria de apagar, mova o
ponteiro do mouse sobre o canto superior direito dela para ver uma seta.
Clicando sobre ela, escolha a opção “Ocultar...” (também serve para
páginas curtidas, não apenas para amigos).
Algumas alternativas são exibidas no processo. Se você optar por
alterar quais atualizações recebe da pessoa, é possível marcar
categorias de mensagens a serem ignoradas, bem como a quantidade delas.
Para simplesmente parar de receber tudo de alguém, escolha a opção
“Cancelar assinatura”.
Por outro lado, ao escolher para organizar quem você vê no Feed de
notícias da rede social, há como criar uma lista de pessoas para colocar
na categoria “Conhecidos”, garantindo que apenas o conteúdo de quem for
considerado seu amigo seja exibido.
Nem todas as informações sobre uma empresa são de conhecimento do
público. Muitas vezes, por razões comerciais, divulgar algum dado
confidencial pode fazer com que as ações de uma companhia caiam e, além
disso, outras empresas podem acabar indo na onda adotando políticas
semelhantes.
O site Market Watch
publicou nesta semana um artigo em que lista algumas informações sobre a
Google que talvez você até já saiba, mas que com certeza nunca verá nas
propagandas da empresa. Afinal, não é do interesse dele que esse tipo
de informação acaba se tornando muito popular.
Eles sabem o que você faz na internet
Você já deve saber que, quando está logado com uma conta do Google,
todos os seus dados de navegação são coletados e, a partir do seu
comportamento, a empresa consegue retornar anúncios publicitários mais
adequados ao seu perfil. Mas como isso exatamente acontece? Ninguém
sabe.
Os algoritmos usados para essa finalidade, bem como a maneira como os
dados são cruzados, são tratados como “segredo de Estado” pela
companhia. Sim, você pode optar por não participar das pesquisas, mas
encontrar as opções de desvinculação nem sempre é uma tarefa simples e
muito sequer imaginam que isso é possível.
Eles estão muito preocupados com os vírus
“O Android é o Velho Oeste dos aplicativos”. A frase é de Nick
Holland, analista do Yankee Group. Segundo ele, a “terra sem lei” em que
os apps podem se propagar sem muito controle pode fazer com quem, no
futuro, o Android se torne um verdadeiro paraíso para os hackers.
A maioria dos usuários ainda dispensa o uso de um antivírus no
smartphone e é justamente aí que reside o problema. Por outro lado, a
Google não faz questão alguma de incentivar o uso de aplicativos do
gênero, uma vez que isso poderia denotar uma sensação de que o Android é
um SO inseguro.
Eles pretendem controlar a sua opinião
Imagine que você entra em uma livraria de um shopping e, dentro dela,
ao lados dos livros, várias pessoas estão ali dizendo se gostaram ou
não da publicação — ainda que não tenham lido o livro. É mais ou menos
assim que funciona o sistema de comentários sobre um produto. Muitas
vezes, as informações dos consumidores podem ser determinantes para que
você compre ou não alguma coisa.
Mas e quando esses comentários são negativos? Um estudo realizado
pela Forrester Research revelou que o livro “Jogos Vorazes” é mais bem
avaliado no site da Amazon do que na loja da Google. A consequência
disso é que o índice de compras no site da empresa de Jeff Bezos é maior
do que na BookStore da Google. A empresa não está satisfeita com esse
tipo de comportamento e estuda um jeito de selecionar melhor os
comentários que exibe.
O Google Books está ficando para trás
As vendas de livros digitais estão crescendo em todos os países, em
especial nos Estados Unidos. Entretanto, a maior beneficiada nesse novo
cenário é a Amazon, que tem visto as suas vendas aumentarem
exponencialmente, o que não acontece no mesmo ritmo na loja da Google.
O que acontece é que, ao menos nos EUA, as pessoas já criaram o
hábito de associar a Amazon com livros digitais. Muitos consumidores
sequer sabem da existência de uma Book Store do Google e, por conta
disso, esse é um mercado em que a Google está muito longe em se tornar
uma referência.
Escritórios legais são uma verdadeira armadilha
As fotos dos escritórios da Google impressionam qualquer um.
Decoração atraente, alimentação e muitas áreas de lazer. Além disso,
benefícios não faltam na folha de pagamento. Quem não gostaria de ter um
emprego como esse, não é mesmo? Contudo, tantas regalias podem ter um
alto preço.
Segundo alguns especialistas em relações de trabalho, ambientes como
esse estimulam os funcionários a passarem mais tempo em função das suas
atividades. A jornada de 8 horas diárias, por exemplo, acaba se
misturando com o tempo de lazer e, no final das contas, a Google conta
com uma legião de pessoas respirando trabalho muitas vezes mais de 16
horas por dia, o que a longo prazo pode não ser saudável.
Quem viveu em meio às “avançadas” tecnologias da década de 1980 e
1990 certamente ouviu música a partir de uma fita cassete, uma das mídias mais clássicas
de todos os tempos. Agora, anos depois de serem substituídas, elas
podem ter uma sobrevida – e ser um dos melhores equipamentos na área de
armazenamento de dados.
Pesquisadores da IBM e da Fujifilm já estão construindo protótipos de fitas que podem substituir o HD e
armazenar até 35 TB em um cartucho de 10 x 10 x 2 centímetros. O alvo,
entretanto, não é o consumidor casual, mas servidores que recebem uma
alta quantidade de dados.
Como ainda está em fase de testes, o primeiro grande trabalho do
“novo velho” equipamento será registrar o conteúdo colhido pelo maior
telescópio via rádio do mundo, cujas antenas começam a operar em 2024.
Fora o baixo custo de produção em relação aos discos rígidos
convencionais, o uso de fitas para guardar dados ainda faz com que o
consumo de energia seja baixo – até 200 vezes menor, já que o aparelho
não faz nenhum tipo de movimento enquanto dados não são armazenados.
SD, miniSD, microSD, xD, Memory Stick e MMC. Esses são apenas alguns
dos tipos de cartão de memória que você pode encontrar por aí no dia a
dia. A quantidade de formatos é imensa e, por conta disso, é natural que
você fique na dúvida na hora de adquirir um modelo para uso cotidiano.
Antes da compra de um modelo, diversos fatores devem ser levados em
consideração. Desde o aparelho que você utiliza até a finalidade de
armazenamento, cada item deve ser analisado com cuidado para que você
possa ter a melhor experiência possível com o equipamento que você tem
em mãos.
Apesar da grande quantidade de informações – e do fato de elas serem
muito similares e, por conta disso, parecerem em um primeiro momento um
pouco confusas –, não há muito que temer. O Tecmundo explica agora para
você tudo aquilo de mais importante que você precisa saber sobre o
assunto.
Entenda como os cartões funcionam
Diferente do que acontece nos discos rígidos, em que o processo de
gravação de informações é mecânico, os cartões utilizam a chamada
memória flash. Também conhecida como armazenamento sólido, esse tipo de
técnica de gravação e leitura acaba gerando equipamentos mais
resistentes a impactos, mais velozes na transferência de dados e com
maior durabilidade.
O procedimento de gravação e leitura é bastante simples. O sistema
conta com dois transistores separados por uma fina camada de óxido de
silício. Um dos lados funciona como uma porta de controle, ativando as
células da memória e fazendo a leitura de dados. Já o outro é uma
espécie de porta flutuante, armazenando as informações.
A corrente elétrica passa de um lado para outro e uma tensão aplicada
na porta de controle puxa os elétrons para a porta flutuante. Esse
processo todo é bastante durável: estima-se que um dispositivo possa ser
regravado pelo menos 100 mil vezes – o que, convenhamos, é uma marca
que você deve demorar um bom tempo para atingir.
Principais tipos de cartão
Infelizmente, a padronização de formatos não é uma das
características desse segmento de mercado. Por conta disso, como você
pode perceber na tabela acima, existem dezenas de tipos de cartão de
memória. Cada um deles tem tamanho diferenciado e características
específicas de velocidade de transferência de dados e capacidade de
gravação.
Um dos formatos mais conhecidos dos consumidores, os SD acabaram se
destacando por estarem presentes em tablets, smartphones e câmeras
digitais de mais de 400 marcas. Embora existam mais tipos, eles estão
disponíveis basicamente em três formatos, sendo que os menores são
compatíveis com os slots maiores por meio de adaptador.
Se a questão do tamanho entre o SD (32 mm x 24 mm), o miniSD (21,5 mm
x 20 mm) e o microSD (15 mm x 11 mm) é fácil de ser percebida, outros
itens importantes também devem ser levados em consideração antes da
compra: os dois principais são espaço de armazenamento e velocidade de
gravação.
Espaço de armazenamento
Basicamente, há três tipos de definição entre os cartões SD: o
modelo-padrão, conhecido como SD Standard, alcança apenas 2 GB de
armazenamento. Já o SDHC (siga para Secure Digital High Capacity)
consegue armazenar até 32 GB de conteúdo. Por fim, o SDXC, padrão mais
recente entre os cartões, já pode ser encontrado em versões de até 256
GB.
Este é um dos itens em que os consumidores menos prestam atenção,
mas, se você pretende fazer um uso profissional do seu cartão, é de
extrema importância ficar ligado a ele. A indicação de velocidade de
leitura de um cartão é mensurada por classes. Existem cinco padrões de
velocidade e cada um deles diz respeito a um uso ideal.
Classe 2: atinge velocidades mínima de 2 Mb/s e é ideal para
gravação de vídeos em definições-padrão. Se a qualidade final da imagem
não é um problema para você, essa solução mais barata pode suprir as
suas necessidades.
Classe 4: atinge velocidade mínima de 4 Mb/s e é o modelo mais indicado para gravação de vídeos em HD (resolução de 720p).
Classe 6: atinge a velocidade mínima de 6 Mb/s e também é indicado
para a gravação de vídeos em HD. O ganho real em relação à Classe 4 é
pequeno, mas na prática a versão garante um pouco mais de segurança para
o usuário.
Classe 10: atinge a velocidade mínima de 10 Mb/s, sendo o formato mais apropriado para vídeos em Full HD (1080p).
UHS Speed Class 1: atinge a velocidade mínima de 10 Mb/s, mas seu
uso é mais restrito. Ideal para quem pretende gravar vídeos de longa
duração ou pretende fazer transmissões em tempo real.
Mas preste atenção
Antes de escolher o cartão com mais espaço e maior velocidade de
gravação, é preciso ficar de olho no equipamento que vai recebê-lo. É
comum, por exemplo, que um aparelho não seja compatível com as classes
mais altas ou com os modelos de maior espaço de armazenamento. Por conta
disso, preste atenção às instruções do fabricante.
Da mesma forma, alguns aparelhos indicam requisitos mínimos com
relação ao cartão de memória que vão receber. Ou seja, para não acabar
comprando um produto e inutilizá-lo depois, siga as orientações do
manual de instruções.
CompactFlash (CF)
Subdivididos em tipo 1 e tipo 2, os CompactFlash são fabricados pela
SanDisk e podem armazenar até 256 GB de conteúdo. Você pode identificar a
diferença entre eles pelo tamanho: o tipo 1 é mais fino, com 3,3 mm de
espessura. Já o tipo 2 tem espessura de 5 mm e, por conta disso, não é
compatível com os slots do tipo 1.
Além do formato, você deve prestar atenção às mesmas duas
características: capacidade de armazenamento e velocidade de gravação.
No primeiro caso, basta ficar atento ao número mesmo – tanto do conteúdo
do cartão quanto do limite suportado pelo seu aparelho.
Já a velocidade de gravação é apresentada de outra forma. Você
precisa ficar atento à especificação numérica seguida da letra “X”,
sendo que “1x” equivale a 150 Kb. Desse modo, você pode encontrar
modelos com a indicação “2x”, “4x”, 8x”, e assim por diante. Quanto
maior o número, maior será a velocidade de gravação e, consequentemente,
melhor será a qualidade final.
Memory Stick e outros formatos
Além desses dois formatos, que podem ser considerados os principais, o
mercado de cartões de memória ainda conta com outros tipos, alguns
exclusivos de fabricantes específicos. A Sony, por exemplo, utiliza o
formato Memory Stick em muitos dos seus produtos.
A quantidade de modelos é maior e os tamanhos são variados. Mas, para
facilitar as coisas, você deve ficar de olho em duas nomenclaturas
básicas: quando você ler em um cartão o termo “PRO”, trata-se de um
cartão com maior quantidade de armazenamento. Já quando você ler o termo
“Duo”, trata-se de um cartão com tamanho menor.
Outros formatos conhecidos dos consumidores, mas já caindo em desuso,
incluem ainda o SmartMedia, da Toshiba, e o xD Picture Card. O primeiro
não está sendo mais utilizado pela sua baixa capacidade de
armazenamento – uma vez que chega a apenas 128 MB de espaço. Já o
segundo, criado pela Fujifilm em parceria com a Olympus, perdeu seu
espaço.
Os cartões do formato xD continuam sendo fabricados, mas as próprias
empresas deixaram de fabricar aparelhos compatíveis única e
exclusivamente com esse formato. Ou seja, a “morte” do formato é hoje
uma questão de tempo.
A Brasil Game Show 2012 — a maior feira de jogos eletrônicos da América
Latina, que aconteceu entre os dias 11 e 14 de outubro — mostrou, tanto
para os brasileiros quanto para o mundo, a força que os games possuem em
nosso país.
Os dados apresentados na feira surpreendem: as
terras tupiniquins concentram cerca de 3,1 milhões de video games de
última geração, além de uma população de 45 milhões de jogadores — a
segunda maior do mundo. E este bom momento no universo dos games em
nosso país foi ainda mais exaltado devido a três presenças ilustres
durante a BGS: Sony, Nintendo e Microsoft, a “trindade dos games”, que
tiveram uma forte campanha no evento.
As grandes fabricantes
aproveitaram a BGS para mostrar conteúdos inéditos e fazer anúncios
direcionados ao país — e, caso você queira ver todas as novidades
apresentadas na feira, clique aqui e veja as notícias e os vídeos do site Baixaki Jogos, que fez a cobertura completa do evento.
Assim,
tal acontecimento em terras tupiniquins demonstrou a força que estamos
ganhando frente ao mercado internacional, especialmente se levarmos em
conta que o mercado de games na Europa, na Ásia e nos Estados Unidos,
geralmente, não consegue atrair as três maiores empresas em uma mesma
feira, como aconteceu no Brasil.
Uma nova atitude em relação ao comércio brasileiro
Mesmo com a pirataria sendo um dos principais “vilões” do mercado de
games no país, as cifras estão aumentando a cada ano. O Brasil conseguiu
movimentar — segundo estimativas da consultoria PricewaterhouseCooper
(PwC) — cerca de 420 milhões de dólares em 2011, atingindo o patamar do
segundo maior mercado da América Latina, atrás apenas do México.
Além
das altas cifras, outros acontecimentos apontam para o forte
crescimento do mercado no país nos próximos anos. Um bom exemplo está no
PlayStation. Mesmo que outros consoles marcantes já tivessem sido
lançados oficialmente nas terras tupiniquins — como o Super Nintendo e o
Mega Drive, na década de 90 —, o PS não teve uma campanha de divulgação
pela Sony no país, e o “mercado informal” foi um dos principais
responsáveis pela comercialização desse produto.
Na
época, duas explicações foram dadas pela companhia. A primeira estava
diretamente relacionada com a pirataria, já que a Sony afirmava que,
vendendo um produto por 80 reais, não teria condições de competir com um
jogo pirata que custa 10. Além disso, também havia uma disputa judicial
pelo nome PlayStation, que já ele estava registrado no país por outra
empresa.
No entanto, como os brasileiros sempre se mostraram
interessados em games e no desenvolvimento desse mercado, tudo começou a
mudar nos últimos anos aos olhos das grandes companhias — que decidiram
investir no país, mesmo com a pirataria. A própria Sony Brasil optou
por lançar oficialmente a linha PlayStation 2 e 3 por aqui e
comercializar os jogos para essas plataformas.
Amor e Damas
Em uma entrevista ao site Exame, o presidente da feira BGS, Marcelo
Tavares, deu um exemplo consistente quanto à mudança no quadro de
desenvolvimento de games no Brasil nesses últimos tempos: há cinco anos,
existiam 40 empresas do setor no país; hoje são 100.
Além
disso, empresas internacionais também quiseram se fixar por aqui. Em
2008, a desenvolvedora Ubisoft — responsável por grandes títulos, como
Assassin’s Creed, Rayman Legends e Watch Dogs — anunciou a abertura do
seu primeiro estúdio de produção na América do Sul. O local escolhido? A
cidade de São Paulo, que é a capital econômica do país e um forte
centro cultural.
Outra prova de como o Brasil está “crescendo” aos olhos dos estúdios
internacionais é o próprio jogo Max Payne 3, da Rockstar Vancouver. Toda
a história do game se passa em São Paulo e ainda traz uma homenagem
“escondida” à cultura brasileira.
No caso, todos sabem que o povo
brasileiro é noveleiro e que muitas das nossas produções fazem sucesso
não só aqui, mas no mundo. Por causa disso, a Rockstar colocou no meio
do jogo uma novela brasileira denominada “Amor e Damas”
— que ainda conta com personagens do nosso folclore, como o Curupira.
Cheia de drama, um roteiro estarrecedor e uma história com clichês de
romance, a novela de Max Payne 3 é para nenhum “horário nobre” botar
defeito.
Projeto Jogo Justo
Os gamers brasileiros encontram nos altos preços barreiras para se
adquirir alguns jogos. No entanto, com o crescimento do mercado no país,
tal questão não passou em branco para a Associação Comercial,
Industrial e Cultural dos Games — ACIGAMES —, que encabeçou, em 2010, a criação do Projeto Jogo Justo.
Tal
iniciativa propõe a redução dos impostos sobre os produtos de video
game — que podem ser taxados em até 80% por sua importação. Com isso, o
projeto também prevê o combate ao “mercado cinza”, que comercializa
produtos que entram no país por contrabando.
Em decorrência,
também foi criado o Dia do Jogo Justo, que, em 2011, contou com a venda
de mais de 58 mil unidades pelo preço “sem imposto”.
Grandes
varejistas, como o Ponto Frio e as Livrarias Saraiva, aderiram aos
descontos, e o resultado de tal campanha foi imediato: games como Call
of Duty: Black Ops e Castlevania: Lord of Shadows se esgotaram até o
final do dia e, nas primeiras horas do evento, foram vendidos, em média,
sete jogos por segundo.
Cursos no país e a exportação
Hoje, a indústria nacional de games também vem ganhando espaço no
mercado de exportação. Segundo o americano Christopher Kastensmidt,
professor universitário do setor de jogos no Rio Grande do Sul, os games
são o produto cultural brasileiro mais exportado, pois não enfrentam
barreiras culturais e nem de idioma, como filmes e livros, por exemplo.
Além
disso, o potencial brasileiro na criação de games pode ser “medido”
pelo número de universidades que lançaram cursos nessa área. Algumas
instituições, como a Unisinos, oferecem graduação tecnológica em games.
Já a Universidade Anhembi Morumbi oferece o curso Design de Games, que
recebeu quatro estrelas na classificação do Guia do Estudante.
Outras
instituições de ensino, como a PUCRS, também ofertam especializações na
área. Assim, como o mercado de games está em crescimento no Brasil,
aumentam as perspectivas para que os profissionais ligados aos games
também ganhem espaço e ampliem o setor no país.
Para deixar os usuários mais confiantes quanto a segurança na rede
social, o Facebook aumentou o catálogo de produtos de empresas parceiras
na sua seção de apps para manter longe as ameaças que rondam a
plataforma. Agora, são sete novos parceiros com suas respectivas
ferramentas de segurança sendo disponibilizadas pela rede social.
Com isso, Avast, AVG, Avira, Kaspersky, Panda, Total Defense e
Webroot começaram a fazer parte da loja de apps do Facebook. Depois
dessa atualização, você pode baixar gratuitamente 11 antivírus para
Windows, seis ferramentas similares para Mac e duas para dispositivos
móveis.
Fora isso, o Facebook espera que a parceria com as novas empresas
melhore a detecção de links maliciosos publicados na rede social. Assim,
sempre que um novo endereço é colado em alguma linha do tempo ou
mensagem, o sistema de escaneamento dessas companhias vai ajudar a
evitar problemas.
Quando você está se matando em uma partida deathmatch contra um clã
russo de Combat Arms e, em um momento decisivo da partida, aquele
pequeno lag acaba atrapalhando a sua vitória, você já sabe qual deve ser
o próximo passo: xingar, gritar e praguejar loucamente contra o mundo
da internet e essa maldita conexão.
Contudo, às vezes também é bom pensarmos em como a união entre os
mundos real e virtual é incrível. Sim, pois é graças às enormes
estruturas de comunicação criadas mundo afora que você consegue disputar
essas partidas, conversar com seus amigos no Japão ou negociar produtos
com aquela empresa norte-americana.
E, ao contrário do que muita gente imagina, as informações da
internet não são transmitidas somente por satélites que orbitam a Terra,
mas por uma gigantesca rede de backbones submarinos que cruza os
oceanos de nosso planeta.
As autoestradas da internet
Antes de entender como funcionam os cabos transoceânicos é preciso
saber o que são os backbones. Trocando em miúdos (e utilizando o
significado da palavra em inglês), podemos dizer que eles são a espinha
dorsal de praticamente todas as trocas de informações dentro do mundo
virtual.
Backbones submarinos distribuídos pelo planeta Terra
Quando você envia uma mensagem para algum amigo seu, por exemplo,
esta sai do seu computador, passa pelo modem e é entregue ao seu
provedor de internet. Em seguida, essa empresa “despeja” os dados em uma
rede de conexões capaz de levar tudo isso até um backbone.
Este, por sua vez, funciona como uma estrada principal, uma grande
avenida de fibra óptica, que trabalha levando as informações de forma
rápida até uma nova rede de dados – fazendo, assim, com que a sua
mensagem chegue ao destino da forma mais veloz possível. Se quiser saber
mais, acesse o nosso artigo “O que é backbone?” para encontrar mais detalhes.
Conexão ultrarrápida
Hoje em dia os backbones não só cruzam vários países, como também
interligam seis dos sete continentes da Terra – somente a Antártica
ainda não conta com uma ligação do tipo. Esses cabos atravessam os mares
de todo o planeta e fazem com que a troca de informações entre os mais
longínquos países seja rápida e (quase sempre) eficiente.
São milhares de quilômetros de fibra óptica – que respondem por cerca
de 99% das conexões do nosso planeta. Estes cabos submarinos contam com
uma capacidade total de troca de dados tão incrível que, se utilizada
de uma vez só, já ultrapassaria os 7 terabytes por segundo.
Com isso, é possível percebermos que somente 1% da internet é coberta
pelos satélites, uma vez que eles apresentam uma conexão bem mais
lenta. Dessa forma, eles acabam trabalhando somente como uma espécie de
“plano B”, uma garantia para o caso de algum acidente com os cabos
acontecer.
Graças a essa eficiência, os backbones marinhos crescem cada vez
mais. Atualmente, o maior cabo de todos é o SeaMeWe 3. Ele conecta nada
menos do que 32 países, saindo da Alemanha e chegando até a cidade de
Keoje, na Coreia do Sul. No total, o cabo tem aproximadamente 39 mil
quilômetros de comprimento e cerca de 40 pontos diferentes de conexão.
Apesar de enorme, este é só mais um dentro do grande universo de
backbones submarinos espalhados pelo planeta Terra. Hoje, pode-se dizer
que existem cerca de 190 cabos deste tipo em operação (ou sendo
construídos) no fundo dos nossos oceanos.
Do que são feitos?
Quando falamos que os backbones submarinos trazem uma conexão
ultrarrápida graças à fibra óptica, é necessário analisarmos também toda
a tecnologia que envolve tais equipamentos. Isso porque eles devem
apresentar estabilidade, rapidez e segurança em cada parte dessas
gigantescas linhas de conexão.
É aí que a construção dos cabos entra em jogo. Os utilizados
atualmente apresentam cerca de 7 centímetros de diâmetro e vários tipos
de escudos. Assim, se você puder “descascar” um destes cabos, encontrará
nada menos do que oito camadas dos mais diferentes materiais.
Olhando-os de fora para dentro, você pode encontrar uma primeira
camada de polietileno, produto que serve como uma espécie de casca, uma
grande proteção para todo o “recheio” que vem a seguir.
A camada número dois é feita de um material chamado Mylar, um filme
de proteção extremamente resistente e muito utilizado em conexões
eletrônicas, como em áudio e vídeo. Já na terceira há fios de aço
trançados, algo que permite uma mobilidade firme e segura para os cabos.
Partindo para a quarta camada você pode encontrar um tipo de alumínio
que protege as fibras ópticas da água. Na camada seguinte, a quinta, há
o policarbonato, material que também trabalha como um isolante para
evitar que a água penetre o backbone.
Na sexta parte da construção destes cabos existe uma espécie de
invólucro, um tubo de cobre (ou alumínio) que dá firmeza e solidez ao
backbone. Já na penúltima camada há pasta de petróleo, algo que conserva
e dá certo “conforto” à oitava e principal parte do cabeamento: a fibra
óptica.
Tudo isso faz com que apenas 1 metro destes backbones chegue a pesar
impressionantes 10 quilos. E, como dito acima, apesar de tanta proteção,
ainda podem ocorrer acidentes. Recentemente, boa parte do continente
africano ficou sem internet após um navio descer a sua âncora bem em cima de um backbone submarino, por exemplo.
Além disso, movimentações imprevisíveis do solo e interferências de
animais, como mordidas de tubarões e outros peixes agressivos, podem
fazer com que a transmissão sofra problemas, exigindo que as empresas
tenham que realizar consertos emergenciais.
Por isso, os backbones contam com outras partes essenciais para o seu
funcionamento, como sensores de atividade e retransmissores de sinal.
Enquanto os primeiros ajudam os técnicos a perceberem se está tudo em
ordem, os segundos fazem com que a “força” do envio de dados ganhe um
novo embalo até que as enormes distâncias sejam percorridas. Dessa
forma, a cada 100 quilômetros de cabos (em média), há um ponto de
retransmissão para dar esse empurrãozinho às informações.
Como são instalados?
A instalação dos backbones submarinos é feita de maneira
diferenciada. Obviamente, o contato humano é bastante limitado devido às
dificuldades que o ambiente oferece. Por isso, a primeira etapa do
trabalho é realizar uma cuidadosa avaliação dos locais que receberão os
cabos. O caminho deve ser o mais plano possível, não contando com
fendas, oscilações de terreno ou possibilidades de tremores que possam
influenciar de maneira negativa na qualidade do sinal.
Trajeto estudado, o próximo passo é partir para a instalação dos
backbones. Tudo acontece basicamente em duas frentes distintas. Enquanto
um navio especializado navega vagarosamente despejando os metros de
cabos, um robô-submarino os posiciona no leito dos mares, realizando uma
pequena escavação e os instalando em uma espécie de trilha.
Bônus: mais de 100 anos cruzando os mares da Terra
Apesar de toda a tecnologia envolvida nesse tipo de conexão, saiba
que os primeiros cabos submarinos foram instalados há mais de 150 anos.
Os primeiros surgiram ainda no século XIX e constituíam uma enorme malha
de cabos de cobre que ligava os Estados Unidos e vários países
europeus, conectando-os para que mensagens de telégrafo fossem enviadas.
Além disso, o Brasil também não ficava para trás e contava com alguns
cabos submarinos. Em 1875, por exemplo, já havia uma rede que cobria
várias cidades das regiões nordeste e sudeste, além de uma
impressionante conexão com mais 8 mil quilômetros que ligava a cidade de
Recife até uma estação de transmissão em Portugal.
Contudo, apesar dessa já razoável estrutura, no século XX tudo
evoluiu de forma diferente, pois era preciso atender o crescimento do
mercado de telefonia. Isso porque esse “novo” ramo não explorava tanto
esse tipo de conexão, pois, neste caso, os satélites sempre se mostraram
bastante eficientes.
Todavia, com a explosão da internet no final dos anos 80, os
cabeamentos ligando continentes e lugares distantes voltaram com tudo —
principalmente devido às incríveis velocidades de transmissão da fibra
óptica. Hoje em dia, existem planos para aumentar ainda mais a
velocidade de transmissão, uma vez que há novos cabos e fibras sendo
desenvolvidos, além de serem cada vez maiores as distâncias cobertas
pelos backbones e os intervalos entre um repetidor de sinal e outro.
A Microsoft
anunciou nesta semana que o Office 2013 já está finalizado e foi
liberado para entrar em processo de produção. O software, entretanto,
não deve chegar às mãos dos consumidores neste ano, sendo
disponibilizado comercialmente apenas a partir de janeiro.
Algumas companhias, contudo, já poderão receber as suas licenças de
atualização a partir do início de dezembro deste ano. Aqueles que
comprarem uma cópia do Office 2010 a partir do dia 19 de outubro também
garantem a atualização para a versão 2013 do pacote de aplicativos.
Que a Apple
está cercada de polêmicas judiciais todos já sabem, e ninguém nem
estranha mais quando a empresa de Cupertino se envolve em uma nova
disputa por questões de patentes. Mas o novo embate envolvendo a Maçã
vem diretamente da Rússia e justamente por causa de seu logo.
Cristãos ortodoxos do país euroasiático exigem que o logo de uma das marcas mais valiosas do mundo
seja substituído por uma cruz. Isso porque a maçã, fruto-símbolo da
companhia, é amplamente reconhecido pelos cristãos como o fruto proibido
consumido por Adão e Eva, resultando assim no Pecado Original e,
consequentemente, na “queda do homem”.
Por incrível que pareça, a proposta pode ser levada adiante devido a
uma nova lei proposta no parlamento russo e que diz respeito a insultos e
blasfêmias contra valores religiosos. Conforme o site australiano
Christian Today, o presidente Vladimir Putin deve aprovar a lei, visto
que foi apoiado pela Igreja Ortodoxa Russa, para a alegria dos cristãos
conservadores.
Não satisfeitos apenas com a substituição do “símbolo do pecado” pelo
símbolo maior do cristianismo, os ortodoxos pedem ainda a suspenção das
vendas da Apple na Rússia e a condenação da empresa por envolvimento em
ações antirreligiosas.
A Discovery Channel
derrubou um Boeing 727 no meio de um deserto no México para a
realização de um documentário que visa entender o motivo de alguns
passageiros sobreviverem a desastres aéreos, enquanto outros não têm a
mesma sorte.
O acidente controlado demorou 4 anos para ser planejado e contou com a
participação de inúmeros especialistas para avaliar os dados obtidos
através das 38 câmeras especiais instaladas por toda a cabine, além de
mais de US$ 500 mil em bonecos para testes de acidentes e inúmeros
sensores espalhados pelo interior da aeronave.
Desastre controlado
Conforme você pode ver nas imagens acima, divulgadas pela ACB News,
o avião atinge o solo de “nariz”, tendo a cabine de comando
completamente arrancada durante o impacto. Segundo as avaliações feitas
pelos especialistas, nenhum dos ocupantes da cabine nem os passageiros
ocupando as poltronas até a fileira 7 sobreviveriam à queda, já que a
força da gravidade entre as fileiras 6 a 8 seria de 12g. Más notícias
para o pessoal da primeira classe!
As forças de impacto foram diminuindo em direção à traseira do avião,
com passageiros sobreviventes mais ao fundo, onde, por razões óbvias, a
caixa preta normalmente é guardada. Já as análises dos bonecos de teste
revelaram que adotar a posição de impacto — aquela na qual você
posiciona a sua cabeça o mais próximo possível da superfície contra a
qual provavelmente vai se chocar — realmente pode salvar a vida de
muitos passageiros.
Contudo, como bem apontou Paul Marks, do site New Scientist,
apesar do incrível espetáculo, o acidente com o Boeing 727 é bem pouco
relevante para a obtenção de dados válidos se considerarmos que esses
aviões foram projetados nos anos 60 e construídos com materiais pouco
representativos em relação a grande parte das aeronaves em uso hoje em
dia.
Além disso, ao contrário da maioria dos modelos atuais, que
apresentam os motores instalados na região das asas, o velho avião
derrubado pela Discovery conta com o seu motor posicionado na parte
traseira, localização comprovadamente pouco segura para esses
equipamentos.
Outra diferença se dá em relação à própria fuselagem, já que as
aeronaves atuais vêm, cada vez mais, adotando designs carregados de
materiais mais leves e que provocam menos ferimentos e danos — como as
fibras de carbono e de vidro — e outros que retardam a propagação de
incêndios, por exemplo.
De qualquer forma, segundo Marks, o teste realizado pela Discovery
serviu para apontar o óbvio: acidentes controlados são necessários para
se estudar o comportamento dos materiais que compõem as aeronaves
atuais, já que os engenheiros de hoje são obrigados a confiar unicamente
em simulações e cálculos realizados em laboratório.
A Alicom ao longo de sua carreira desenvolveu soluções que atendem a vários seguimentos, todas visando o aumento da produtividade, praticidade e segurança nos processos operacionais.