Últimos Artigos

22/11/2014



A Streak é um plugin para o Google Chrome que rastreia as mensagens de email que envia e que avisa o utilizador se a sua mensagem foi lida ou não pelo destinatário. O destinatário nem se apercebe de que as comunicações estão a ser vigiadas.

Continue a ler



A Microsoft anunciou há alguns dias, o Internet Explorer Developer Channel, um navegador totalmente funcional projectado para dar aos programadores web um olhar de como serão as características futuras nas quais a empresa trabalha actualmente.

Tudo aqui.
Continue a ler



rede wireless é uma rede de computadores estruturada a partir de equipamentos que não necessitam de cabos para conexão. A tecnologia ganhou sua ascensão há poucos anos e substituiu com eficácia as famosas redes por cabo, que perduraram por muitos anos.
A rede wireless funciona por meio de aparelhos de radiofrequência ou infravermelho que captam os sinais de rede e os transmitem para o computador. Geralmente estes aparelhos são modens e routers, já conhecidos pelos utilizadores. Com eles,  pode aceder-se à internet mesmo estando há alguns metros de distância do ponto de acesso.
Seja em casa, no escritório, comércio e até mesmo em locais públicos, com a tecnologia wireless o acesso  tornou-se muito mais fácil, rápido e práctico. Assim,  pode aceder aos e-mails, redes sociais e outros sites em qualquer local que disponibilize essa rede.
As redes wireless classificam-se  como redes locais (WLAN), redes de curta distância ou pessoais (WPAN), redes de longa distância ou geograficamente distribuídas (WWAN) e redes metropolitanas (WMAN), classificações feitas de acordo com a área de abrangência das redes.
Outro tipo de classificação conhecida para as redes deste tipo são as atribuições a, b, g e n. São elas:
  • 802.11a: alcança a velocidade de 54 Mbps, tem suporte para 64 utilizadores por ponto de acesso e opera na frequência de 5,8 GHz. As vantagens principais são a ausência de interferência e a velocidade.
  • 802.11b: apresenta transferência média de 11 Mbps, velocidade de 22 Mbps, opera na frequência de 2.4 GHz e suporta 32 utilizadores por ponto de acesso. A vantagem é a disponibilidade gratuita no mundo todo, e a desvantagem é a interferência na recepção e transmissão de sinais.
  • 802.11g: conta com velocidade de 54 Mbps e tem frequência de 2,4 GHz. O ponto positivo é a alta velocidade.
  • 802.11n: novo padrão aprovado para redes sem fio. As taxas de transferência disponíveis vão de 65 Mbps a 300 Mbps e a faixa de frequência são de 2,4 GHz ou 5 GHz.
Continue a ler



As pessoas tendem a personalizar as coisas para deixá-las mais ao seu gosto. Mudam as cores, formatos, e muito mais.


Fazem isto com carros, móveis, com as suas casas e também com os seus Computadores. Esta modalidade, especifíca, é chamada de Case Modding, que traduzida literalmente significa modificação de caixa.

Na verdade, Case Modding é a personalização dos gabinetes dos computadores e das carcaças dos notebooks.
Continue a ler




Os humanos podem ver apenas uma pequena parte do espectro eletromagnético. Outros animais podem ver em ultravioleta e infravermelho. Mas, infelizmente, ninguém consegue ver as redes Wi-Fi.

Agora, um aparelho capta redes disponíveis e fotografa-as com longa exposição. Como resultado temos uma série de fotos incríveis, com o sinal de Wi-Fi revelado em diversas cores, como verde, azul, vermelho e amarelo.

Para conseguir o feito, foi criado um dispositivo que mede as propriedades de sinais Wi-Fi e mostra uma cor. O vermelho demonstra um sinal forte, enquanto o azul representa o mais fraco.

Saiba mais..
Continue a ler


O aquecimento global, alterações climáticas e excesso de lixo estão no centro de algumas das principais preocupações que atormentam a humanidade; sustentabilidade ambiental. Se continuarmos a utilizar os recursos naturais ao mesmo ritmo que mantemos desde a revolução industrial os danos à bioesfera serão irreversíveis.

A economia digital continua em crescimento, com 60% da população europeia a utilizar a internet regularmente em 2009. A banda larga está disponível para 94% da população e é acedida por 56% dos agregados e 83% das empresas. A popularidade das redes sociais e dos vídeos online alterou o modo das pessoas se distraírem e informarem, resultando em enormes impactos a nível social e económico. À medida que as TIC e a Internet penetram a economia europeia devido à tendencial utilização das aplicações e serviços de banda larga, em associação à difusão dos dispositivos wireless, o impacto nas estruturas e dinâmicas da sociedade europeia tornou-se identicamente considerável.

Os consumidores de tecnologia impõem constantemente dispositivos mais pequenos, eficientes e potentes que os que detêm presentemente. Smartphones, iPhones e BlackBerrys exibem uma propensão em todas as formas de tecnologia móvel, orientados para dispositivos mais pequenos que executam cada vez maior número de funções.

Estatísticas do governo dos EUA mostram que os centros de dados usam tanta energia como o conjunto da indústria automóvel; os EUA constroem em média 10 milhões de carros por ano.

A utilização de soluções e metodologias Green IT, quando vistas para além das necessidades de conformidade legal e regulamentar, constituem aquele tipo raro de acções, que não só reduzem os custos operacionais, como diferenciam a marca e contribuem para a satisfação dos clientes.

Desta forma, as soluções de gestão das TI formam um elo fundamental e desempenham um papel importante na política de desenvolvimento sustentável das empresas. As questões ambientais devem ser cada vez mais importantes no dia-a-dia empresarial. O impacto da nova legislação juntamente com o nível crescente de preocupação dos clientes, significa que poucas organizações se podem dar ao luxo de ser complacentes quando se trata de monitorizar o impacto ambiental das suas actividades.

By Fatma

Continue a ler



Com o início da segunda guerra mundial, os governos procuraram desenvolver máquinas computorizadas para explorar o próprio potencial estratégico. Isto deu início a uma serie de projectos de desenvolvimento de computadores e de progresso técnico. Em 1941 Konrad, desenvolveu o computador Z3, para projectar aviões e mísseis.

Em 1943, os Ingleses terminaram um computador chamado Colossus para descodificar mensagens alemãs. O impacto do Colossus no desenvolvimento da indústria do computador foi muito limitado por duas razões importantes: o Colossus não era um computador de uso geral e foi projectado somente para descodificar mensagens secretas. Em segundo, a existência da máquina foi mantida secreta até décadas após a guerra.

Os esforços americanos produziram resultados numa escala maior. Howard H. Aiken (1900-1973), um coordenador de Harvard que trabalhava para a IBM, estava determinado em produzir uma “maquina calculadora” já em 1944 . A finalidade do computador era criar cartas balísticas para a marinha de Estados Unidos. Esta máquina era tão grande quanto um campo de futebol e continha aproximadamente 500 milhas de fios eléctricos. Usava sinais electromagnéticos para mover as peças mecânicas. A máquina era lenta demorando entre 3-5 segundos por cálculo) e inflexível, tanto que as sequências dos cálculos não poderiam ser mudadas, mas poderia executar a aritmética básica, bem como umas equações mais complexas.

Um outro modelo de computador estratega era o computador numérico electrónico ENIAC , produzido por uma parceria entre o governo de Estados Unidos e a Universidade de Pensilvânia. Este computador era uma máquina tão pesada que consumia 160 quilo watts de electricidade, energia que era suficiente para escurecer as luzes em uma grande parte da cidade de Filadélfia. Realizado por John Presper Eckert (1919-1995) e por John W. Mauchly (1907-1980), o ENIAC, ao contrário do Colossus, era um computador “universal” que permitia realizar operações com velocidades 1.000 vezes maiores do que o seu antecessor.

Em de 1940 John Von Neumann (1903-1957) em colaboração com a equipa da faculdade de Pensilvânia, deu início aos conceitos arquitecturais do computador que permaneceram ainda válidos. Von Neumann projectou o computador automático variável electrónico (EDVAC) em 1945, com uma memória capaz de manter um programa armazenado, bem como os relativos dados. Esta "memória de armazenamento" e "transferência de controlos condicionais," permitiam que o computador fosse parado em qualquer ponto e que retomasse então de novo o seu processamento, permitindo uma maior versatilidade na sua programação. O elemento chave da “arquitectura” produzida por Von Neumann era a unidade central de processamento (processador), que permitiu que todas as funções do computador fossem coordenadas por uma única fonte.

Em 1951, o UNIVAC I (computador automático universal), construído por Remington, transformou-se num dos primeiros computadores comercialmente disponíveis. Uma das impressionantes previsões adiantadas pelo UNIVAC predizia o vencedor da eleição presidencial de 1952, Dwight D. Eisenhower.

Os computadores de primeira geração foram caracterizados pelo facto de que as instruções operadas eram face à ordem para a tarefa específica para que o computador devia ser usado. Cada computador tinha um programa código binário diferente chamado “língua de máquina” que lhe dizia como deveria operar. Isto fez o computador difícil de programar e limitou a sua versatilidade e velocidade. Outras características distintivas dos computadores de primeira geração eram o uso dos tubos de vácuo (responsáveis pelo seu tamanho) e cilindros magnéticos para o armazenamento de dados.

Em 1948, a invenção do transístor mudou muito o desenvolvimento do computador. O transístor substituiu o tubo de vácuo nas televisões, os rádios e os computadores grandes, incómodos. Em consequência, o tamanho da maquinaria electrónica foi desde então diminuindo. Acoplado com avanços adiantados na memória do núcleo magnético, os transístores conduziram aos computadores de segunda geração que eram, mais rápidos, de maior confiança e energicamente mais económicos do que seus predecessores. Estes computadores, tornaram-se extremamente importantes para os laboratórios de energia atómica, podendo armazenar uma quantidade enorme de dados, potencialidade esta muito procurada por cientistas atómicos. As máquinas eram caras e o sector comercial não ajudava a sua divulgação . Somente dois “LARCs” foram instalados: um nos laboratórios da radiação de Lawrence em Livermore, Califórnia, que foi chamado (computador atómico da pesquisa de Livermore) e o outro nos E. U., no centro da pesquisa e de desenvolvimento da marinha em Washington. Outros computadores de segunda geração conseguiram substituir a linguagem de programação de códigos binários muito complexos por códigos de programação abreviados.

No princípio da década de 60 um grande numero de computadores de segunda geração era usado nos negócios, em universidades e pelas estruturas governamentais. Estes computadores além de terem um design muito mais atractivo em relação aos da geração anterior, continham transístores em vez de tubos em vácuo, além de componentes e periféricos que hoje em dia são geralmente associadas aos chamados computadores modernos, como impressoras, discos ou fitas de armazenamento de dados, sistema operativo e programas gravados, só para indicar alguns. Um dos exemplos mais importantes deste tipo de computadores foi o IBM 1401 que foi universalmente aceite pela indústria e considerado como modelo de referência. 

Foi a capacidade de guardar programas no seu interior e a linguagem de programação que deu aos computadores a flexibilidade suficiente para poderem ser usados na industria e nos negócios, começando desde então uma dualidade custo-beneficio competitiva e conveniente. 

O conceito de armazenamento dos programas no interior do computador para desenvolver uma tarefa especifica, foi largamente ajudado pela capacidade de memória do próprio computador e podia rapidamente repor outra sequência de execução, permitindo assim proceder a facturação de um cliente e pouco depois proceder a emissão de cheques, ou calcular o total de vendas de um determinado departamento. Linguagens de programação mais complexas como o Cobol (Common Business Oriented Language) e o Fortran (Formula Translator) eram muito comuns nesta altura e expandiram-se até aos nossos dias. Estas linguagens substituíam códigos binários criptados com palavras, frases, formulas matemáticas, simplificando muito a tarefa de programar um computador. A partir deste momento uma série de novas carreiras profissionais dedicadas a esta área começaram a ser criadas, desde programadores, analistas e especialistas de sistemas informáticos, esta industria começou a ter um peso cada vez maior.
Continue a ler