22/11/2014



A Microsoft anunciou há alguns dias, o Internet Explorer Developer Channel, um navegador totalmente funcional projectado para dar aos programadores web um olhar de como serão as características futuras nas quais a empresa trabalha actualmente.

Tudo aqui.
Continue a ler



rede wireless é uma rede de computadores estruturada a partir de equipamentos que não necessitam de cabos para conexão. A tecnologia ganhou sua ascensão há poucos anos e substituiu com eficácia as famosas redes por cabo, que perduraram por muitos anos.
A rede wireless funciona por meio de aparelhos de radiofrequência ou infravermelho que captam os sinais de rede e os transmitem para o computador. Geralmente estes aparelhos são modens e routers, já conhecidos pelos utilizadores. Com eles,  pode aceder-se à internet mesmo estando há alguns metros de distância do ponto de acesso.
Seja em casa, no escritório, comércio e até mesmo em locais públicos, com a tecnologia wireless o acesso  tornou-se muito mais fácil, rápido e práctico. Assim,  pode aceder aos e-mails, redes sociais e outros sites em qualquer local que disponibilize essa rede.
As redes wireless classificam-se  como redes locais (WLAN), redes de curta distância ou pessoais (WPAN), redes de longa distância ou geograficamente distribuídas (WWAN) e redes metropolitanas (WMAN), classificações feitas de acordo com a área de abrangência das redes.
Outro tipo de classificação conhecida para as redes deste tipo são as atribuições a, b, g e n. São elas:
  • 802.11a: alcança a velocidade de 54 Mbps, tem suporte para 64 utilizadores por ponto de acesso e opera na frequência de 5,8 GHz. As vantagens principais são a ausência de interferência e a velocidade.
  • 802.11b: apresenta transferência média de 11 Mbps, velocidade de 22 Mbps, opera na frequência de 2.4 GHz e suporta 32 utilizadores por ponto de acesso. A vantagem é a disponibilidade gratuita no mundo todo, e a desvantagem é a interferência na recepção e transmissão de sinais.
  • 802.11g: conta com velocidade de 54 Mbps e tem frequência de 2,4 GHz. O ponto positivo é a alta velocidade.
  • 802.11n: novo padrão aprovado para redes sem fio. As taxas de transferência disponíveis vão de 65 Mbps a 300 Mbps e a faixa de frequência são de 2,4 GHz ou 5 GHz.
Continue a ler



As pessoas tendem a personalizar as coisas para deixá-las mais ao seu gosto. Mudam as cores, formatos, e muito mais.


Fazem isto com carros, móveis, com as suas casas e também com os seus Computadores. Esta modalidade, especifíca, é chamada de Case Modding, que traduzida literalmente significa modificação de caixa.

Na verdade, Case Modding é a personalização dos gabinetes dos computadores e das carcaças dos notebooks.
Continue a ler




Os humanos podem ver apenas uma pequena parte do espectro eletromagnético. Outros animais podem ver em ultravioleta e infravermelho. Mas, infelizmente, ninguém consegue ver as redes Wi-Fi.

Agora, um aparelho capta redes disponíveis e fotografa-as com longa exposição. Como resultado temos uma série de fotos incríveis, com o sinal de Wi-Fi revelado em diversas cores, como verde, azul, vermelho e amarelo.

Para conseguir o feito, foi criado um dispositivo que mede as propriedades de sinais Wi-Fi e mostra uma cor. O vermelho demonstra um sinal forte, enquanto o azul representa o mais fraco.

Saiba mais..
Continue a ler


O aquecimento global, alterações climáticas e excesso de lixo estão no centro de algumas das principais preocupações que atormentam a humanidade; sustentabilidade ambiental. Se continuarmos a utilizar os recursos naturais ao mesmo ritmo que mantemos desde a revolução industrial os danos à bioesfera serão irreversíveis.

A economia digital continua em crescimento, com 60% da população europeia a utilizar a internet regularmente em 2009. A banda larga está disponível para 94% da população e é acedida por 56% dos agregados e 83% das empresas. A popularidade das redes sociais e dos vídeos online alterou o modo das pessoas se distraírem e informarem, resultando em enormes impactos a nível social e económico. À medida que as TIC e a Internet penetram a economia europeia devido à tendencial utilização das aplicações e serviços de banda larga, em associação à difusão dos dispositivos wireless, o impacto nas estruturas e dinâmicas da sociedade europeia tornou-se identicamente considerável.

Os consumidores de tecnologia impõem constantemente dispositivos mais pequenos, eficientes e potentes que os que detêm presentemente. Smartphones, iPhones e BlackBerrys exibem uma propensão em todas as formas de tecnologia móvel, orientados para dispositivos mais pequenos que executam cada vez maior número de funções.

Estatísticas do governo dos EUA mostram que os centros de dados usam tanta energia como o conjunto da indústria automóvel; os EUA constroem em média 10 milhões de carros por ano.

A utilização de soluções e metodologias Green IT, quando vistas para além das necessidades de conformidade legal e regulamentar, constituem aquele tipo raro de acções, que não só reduzem os custos operacionais, como diferenciam a marca e contribuem para a satisfação dos clientes.

Desta forma, as soluções de gestão das TI formam um elo fundamental e desempenham um papel importante na política de desenvolvimento sustentável das empresas. As questões ambientais devem ser cada vez mais importantes no dia-a-dia empresarial. O impacto da nova legislação juntamente com o nível crescente de preocupação dos clientes, significa que poucas organizações se podem dar ao luxo de ser complacentes quando se trata de monitorizar o impacto ambiental das suas actividades.

By Fatma

Continue a ler



Com o início da segunda guerra mundial, os governos procuraram desenvolver máquinas computorizadas para explorar o próprio potencial estratégico. Isto deu início a uma serie de projectos de desenvolvimento de computadores e de progresso técnico. Em 1941 Konrad, desenvolveu o computador Z3, para projectar aviões e mísseis.

Em 1943, os Ingleses terminaram um computador chamado Colossus para descodificar mensagens alemãs. O impacto do Colossus no desenvolvimento da indústria do computador foi muito limitado por duas razões importantes: o Colossus não era um computador de uso geral e foi projectado somente para descodificar mensagens secretas. Em segundo, a existência da máquina foi mantida secreta até décadas após a guerra.

Os esforços americanos produziram resultados numa escala maior. Howard H. Aiken (1900-1973), um coordenador de Harvard que trabalhava para a IBM, estava determinado em produzir uma “maquina calculadora” já em 1944 . A finalidade do computador era criar cartas balísticas para a marinha de Estados Unidos. Esta máquina era tão grande quanto um campo de futebol e continha aproximadamente 500 milhas de fios eléctricos. Usava sinais electromagnéticos para mover as peças mecânicas. A máquina era lenta demorando entre 3-5 segundos por cálculo) e inflexível, tanto que as sequências dos cálculos não poderiam ser mudadas, mas poderia executar a aritmética básica, bem como umas equações mais complexas.

Um outro modelo de computador estratega era o computador numérico electrónico ENIAC , produzido por uma parceria entre o governo de Estados Unidos e a Universidade de Pensilvânia. Este computador era uma máquina tão pesada que consumia 160 quilo watts de electricidade, energia que era suficiente para escurecer as luzes em uma grande parte da cidade de Filadélfia. Realizado por John Presper Eckert (1919-1995) e por John W. Mauchly (1907-1980), o ENIAC, ao contrário do Colossus, era um computador “universal” que permitia realizar operações com velocidades 1.000 vezes maiores do que o seu antecessor.

Em de 1940 John Von Neumann (1903-1957) em colaboração com a equipa da faculdade de Pensilvânia, deu início aos conceitos arquitecturais do computador que permaneceram ainda válidos. Von Neumann projectou o computador automático variável electrónico (EDVAC) em 1945, com uma memória capaz de manter um programa armazenado, bem como os relativos dados. Esta "memória de armazenamento" e "transferência de controlos condicionais," permitiam que o computador fosse parado em qualquer ponto e que retomasse então de novo o seu processamento, permitindo uma maior versatilidade na sua programação. O elemento chave da “arquitectura” produzida por Von Neumann era a unidade central de processamento (processador), que permitiu que todas as funções do computador fossem coordenadas por uma única fonte.

Em 1951, o UNIVAC I (computador automático universal), construído por Remington, transformou-se num dos primeiros computadores comercialmente disponíveis. Uma das impressionantes previsões adiantadas pelo UNIVAC predizia o vencedor da eleição presidencial de 1952, Dwight D. Eisenhower.

Os computadores de primeira geração foram caracterizados pelo facto de que as instruções operadas eram face à ordem para a tarefa específica para que o computador devia ser usado. Cada computador tinha um programa código binário diferente chamado “língua de máquina” que lhe dizia como deveria operar. Isto fez o computador difícil de programar e limitou a sua versatilidade e velocidade. Outras características distintivas dos computadores de primeira geração eram o uso dos tubos de vácuo (responsáveis pelo seu tamanho) e cilindros magnéticos para o armazenamento de dados.

Em 1948, a invenção do transístor mudou muito o desenvolvimento do computador. O transístor substituiu o tubo de vácuo nas televisões, os rádios e os computadores grandes, incómodos. Em consequência, o tamanho da maquinaria electrónica foi desde então diminuindo. Acoplado com avanços adiantados na memória do núcleo magnético, os transístores conduziram aos computadores de segunda geração que eram, mais rápidos, de maior confiança e energicamente mais económicos do que seus predecessores. Estes computadores, tornaram-se extremamente importantes para os laboratórios de energia atómica, podendo armazenar uma quantidade enorme de dados, potencialidade esta muito procurada por cientistas atómicos. As máquinas eram caras e o sector comercial não ajudava a sua divulgação . Somente dois “LARCs” foram instalados: um nos laboratórios da radiação de Lawrence em Livermore, Califórnia, que foi chamado (computador atómico da pesquisa de Livermore) e o outro nos E. U., no centro da pesquisa e de desenvolvimento da marinha em Washington. Outros computadores de segunda geração conseguiram substituir a linguagem de programação de códigos binários muito complexos por códigos de programação abreviados.

No princípio da década de 60 um grande numero de computadores de segunda geração era usado nos negócios, em universidades e pelas estruturas governamentais. Estes computadores além de terem um design muito mais atractivo em relação aos da geração anterior, continham transístores em vez de tubos em vácuo, além de componentes e periféricos que hoje em dia são geralmente associadas aos chamados computadores modernos, como impressoras, discos ou fitas de armazenamento de dados, sistema operativo e programas gravados, só para indicar alguns. Um dos exemplos mais importantes deste tipo de computadores foi o IBM 1401 que foi universalmente aceite pela indústria e considerado como modelo de referência. 

Foi a capacidade de guardar programas no seu interior e a linguagem de programação que deu aos computadores a flexibilidade suficiente para poderem ser usados na industria e nos negócios, começando desde então uma dualidade custo-beneficio competitiva e conveniente. 

O conceito de armazenamento dos programas no interior do computador para desenvolver uma tarefa especifica, foi largamente ajudado pela capacidade de memória do próprio computador e podia rapidamente repor outra sequência de execução, permitindo assim proceder a facturação de um cliente e pouco depois proceder a emissão de cheques, ou calcular o total de vendas de um determinado departamento. Linguagens de programação mais complexas como o Cobol (Common Business Oriented Language) e o Fortran (Formula Translator) eram muito comuns nesta altura e expandiram-se até aos nossos dias. Estas linguagens substituíam códigos binários criptados com palavras, frases, formulas matemáticas, simplificando muito a tarefa de programar um computador. A partir deste momento uma série de novas carreiras profissionais dedicadas a esta área começaram a ser criadas, desde programadores, analistas e especialistas de sistemas informáticos, esta industria começou a ter um peso cada vez maior.
Continue a ler

O servidor

Um servidor como sistema de computação centralizada fornece serviços a uma rede de computadores. Os serviços podem ser de natureza diversa. Os computadores que acedem aos serviços de um servidor são chamados clientes. As redes que utilizam servidores são do tipo cliente-servidor, utilizadas em redes de médio e grande porte (com muitas máquinas) e em redes onde a questão da segurança desempenha um papel de grande importância. O termo servidor é largamente aplicado a computadores completos, embora um servidor possa equivaler a um software, a partes de um sistema computacional e até mesmo a uma máquina que não seja necessariamente um computador.

A história dos servidores deriva das redes de computadores. As redes permitiam a comunicação entre diversos computadores, e, com o crescimento destas, surgiu a ideia de dedicar alguns computadores à prestação de serviços à rede, enquanto outros se utilizariam destes serviços. Os servidores ficariam responsáveis pela primeira função.

Com o advento das redes, foi crescendo a necessidade das redes terem servidores e minicomputadores, o que acabou por contribuir para a diminuição do uso das mainframes.

O crescimento das empresas de redes e o crescimento do uso da Internet entre profissionais e usuários comuns foi o grande impulso para o desenvolvimento e aperfeiçoamento de tecnologias para servidores.

Resumidamente, um servidor é um computador mais potente do que um desktop comum. Foi desenvolvido especificamente para transmitir informações e fornecer produtos de software a outros computadores que estiverem unidos a ele por uma rede. 

Os servidores têm o hardware para gerenciar o funcionamento em rede wireless e por cabo Ethernet, normalmente através de um rooter. Foram desenvolvidos para lidar com cargas de trabalho mais pesadas e com mais aplicativos, aproveitando a vantagem de um hardware específico para aumentar a produtividade e reduzir o tempo de inactividade.

Os servidores também oferecem ferramentas de administração remotas, o que significa que um membro da equipa de TI pode verificar o uso e diagnosticar problemas de outro local. Isso também significa que se podem executar manutenções de rotina, como adicionar novos usuários ou alterar senhas.

Existem vários tipos de servidores, como servidores web, servidores de arquivos, servidores de impressão, etc. Uma única máquina pode utilizar simultaneamente vários serviços, dependendo apenas dos recursos de hardware e da carga de trabalho.

De uma forma geral, qualquer PC pode ser usado como um servidor, basta instalar os softwares apropriados. Para tarefas leves, até mesmo máquinas antigas podem prestar bons serviços.



Entretanto, quando falamos de servidores de hospedagem e servidores usados em grandes empresas, o cenário é um pouco diferente. Além de utilizarem serviços e aplicativos muito mais pesados, atendendo a centenas de usuários simultâneos, estes servidores realizam tarefas essenciais, de forma que qualquer interrupção nas suas actividades pode representar um grande prejuízo, ao contrário de um desktop, onde o usuário pode simplesmente reiniciar depois de um ecrã azul, como se nada tivesse acontecido. Um bom servidor deve ser capaz de funcionar por anos a fio, com pouca ou nenhuma manutenção. Além de ser optimizado para um conjunto específico de tarefas, ele necessita ser muito mais estável e confiável do que um desktop típico, o que leva a diferenças nos componentes usados.


Começando do básico, a função de um servidor é disponibilizar serviços (HTTP, FTP, DNS, e-mail, bancos de dados, máquinas virtuais e muitos outros) para um grande número de usuários simultaneamente. De acordo com os serviços usados, determinados componentes são mais importantes do que outros. Um servidor de bancos de dados, por exemplo, depende basicamente do desempenho de acesso a disco em operações de acesso aleatório (um grande volume de pequenas leituras, com setores espalhados por diversos pontos dos discos), o que torna necessário utilizar vários HDs em RAID (em geral é utilizado o modo RAID 5 ou o RAID 6) e uma grande quantidade de memória RAM, usada para cache de disco.

Por outro lado, um servidor destinado a utilizar aplicativos, como um servidor de acesso remoto, por exemplo, necessita predominantemente de processamento e memória. O desempenho do HD não é tão importante (pois os aplicativos usados quase sempre já estarão carregados na memória ou no cache de disco), mas um processador com dois (ou quatro) núcleos e muito cache L2 é essencial para rodar o brutal número de processos simultâneos.

Antigamente, era comum o uso de placas com suporte a dois ou quatro processadores, mas com o lançamento dos processadores dual-core e quad-core elas tornaram-se menos comuns (já que sai muito mais barato usar um único processador quad-core do que usar uma mother-board com 4 processadores separados). Apesar disso, servidores com vários processadores ainda resistem em diversos nichos, agora utilizando processadores AMD Opteron e Intel Xeon com vários núcleos. Juntando quatro processadores AMD Opteron 83xx (quad-core), por exemplo, temos nada menos do que 16 núcleos, o que resulta numa potência de processamento brutal em diversas tarefas de servidor, onde o desempenho é directamente limitado pelo volume de processamento disponível.

By AM
Continue a ler