22/11/2014



A Streak é um plugin para o Google Chrome que rastreia as mensagens de email que envia e que avisa o utilizador se a sua mensagem foi lida ou não pelo destinatário. O destinatário nem se apercebe de que as comunicações estão a ser vigiadas.

Continue a ler



A Microsoft anunciou há alguns dias, o Internet Explorer Developer Channel, um navegador totalmente funcional projectado para dar aos programadores web um olhar de como serão as características futuras nas quais a empresa trabalha actualmente.

Tudo aqui.
Continue a ler



rede wireless é uma rede de computadores estruturada a partir de equipamentos que não necessitam de cabos para conexão. A tecnologia ganhou sua ascensão há poucos anos e substituiu com eficácia as famosas redes por cabo, que perduraram por muitos anos.
A rede wireless funciona por meio de aparelhos de radiofrequência ou infravermelho que captam os sinais de rede e os transmitem para o computador. Geralmente estes aparelhos são modens e routers, já conhecidos pelos utilizadores. Com eles,  pode aceder-se à internet mesmo estando há alguns metros de distância do ponto de acesso.
Seja em casa, no escritório, comércio e até mesmo em locais públicos, com a tecnologia wireless o acesso  tornou-se muito mais fácil, rápido e práctico. Assim,  pode aceder aos e-mails, redes sociais e outros sites em qualquer local que disponibilize essa rede.
As redes wireless classificam-se  como redes locais (WLAN), redes de curta distância ou pessoais (WPAN), redes de longa distância ou geograficamente distribuídas (WWAN) e redes metropolitanas (WMAN), classificações feitas de acordo com a área de abrangência das redes.
Outro tipo de classificação conhecida para as redes deste tipo são as atribuições a, b, g e n. São elas:
  • 802.11a: alcança a velocidade de 54 Mbps, tem suporte para 64 utilizadores por ponto de acesso e opera na frequência de 5,8 GHz. As vantagens principais são a ausência de interferência e a velocidade.
  • 802.11b: apresenta transferência média de 11 Mbps, velocidade de 22 Mbps, opera na frequência de 2.4 GHz e suporta 32 utilizadores por ponto de acesso. A vantagem é a disponibilidade gratuita no mundo todo, e a desvantagem é a interferência na recepção e transmissão de sinais.
  • 802.11g: conta com velocidade de 54 Mbps e tem frequência de 2,4 GHz. O ponto positivo é a alta velocidade.
  • 802.11n: novo padrão aprovado para redes sem fio. As taxas de transferência disponíveis vão de 65 Mbps a 300 Mbps e a faixa de frequência são de 2,4 GHz ou 5 GHz.
Continue a ler



As pessoas tendem a personalizar as coisas para deixá-las mais ao seu gosto. Mudam as cores, formatos, e muito mais.


Fazem isto com carros, móveis, com as suas casas e também com os seus Computadores. Esta modalidade, especifíca, é chamada de Case Modding, que traduzida literalmente significa modificação de caixa.

Na verdade, Case Modding é a personalização dos gabinetes dos computadores e das carcaças dos notebooks.
Continue a ler




Os humanos podem ver apenas uma pequena parte do espectro eletromagnético. Outros animais podem ver em ultravioleta e infravermelho. Mas, infelizmente, ninguém consegue ver as redes Wi-Fi.

Agora, um aparelho capta redes disponíveis e fotografa-as com longa exposição. Como resultado temos uma série de fotos incríveis, com o sinal de Wi-Fi revelado em diversas cores, como verde, azul, vermelho e amarelo.

Para conseguir o feito, foi criado um dispositivo que mede as propriedades de sinais Wi-Fi e mostra uma cor. O vermelho demonstra um sinal forte, enquanto o azul representa o mais fraco.

Saiba mais..
Continue a ler


O aquecimento global, alterações climáticas e excesso de lixo estão no centro de algumas das principais preocupações que atormentam a humanidade; sustentabilidade ambiental. Se continuarmos a utilizar os recursos naturais ao mesmo ritmo que mantemos desde a revolução industrial os danos à bioesfera serão irreversíveis.

A economia digital continua em crescimento, com 60% da população europeia a utilizar a internet regularmente em 2009. A banda larga está disponível para 94% da população e é acedida por 56% dos agregados e 83% das empresas. A popularidade das redes sociais e dos vídeos online alterou o modo das pessoas se distraírem e informarem, resultando em enormes impactos a nível social e económico. À medida que as TIC e a Internet penetram a economia europeia devido à tendencial utilização das aplicações e serviços de banda larga, em associação à difusão dos dispositivos wireless, o impacto nas estruturas e dinâmicas da sociedade europeia tornou-se identicamente considerável.

Os consumidores de tecnologia impõem constantemente dispositivos mais pequenos, eficientes e potentes que os que detêm presentemente. Smartphones, iPhones e BlackBerrys exibem uma propensão em todas as formas de tecnologia móvel, orientados para dispositivos mais pequenos que executam cada vez maior número de funções.

Estatísticas do governo dos EUA mostram que os centros de dados usam tanta energia como o conjunto da indústria automóvel; os EUA constroem em média 10 milhões de carros por ano.

A utilização de soluções e metodologias Green IT, quando vistas para além das necessidades de conformidade legal e regulamentar, constituem aquele tipo raro de acções, que não só reduzem os custos operacionais, como diferenciam a marca e contribuem para a satisfação dos clientes.

Desta forma, as soluções de gestão das TI formam um elo fundamental e desempenham um papel importante na política de desenvolvimento sustentável das empresas. As questões ambientais devem ser cada vez mais importantes no dia-a-dia empresarial. O impacto da nova legislação juntamente com o nível crescente de preocupação dos clientes, significa que poucas organizações se podem dar ao luxo de ser complacentes quando se trata de monitorizar o impacto ambiental das suas actividades.

By Fatma

Continue a ler



Com o início da segunda guerra mundial, os governos procuraram desenvolver máquinas computorizadas para explorar o próprio potencial estratégico. Isto deu início a uma serie de projectos de desenvolvimento de computadores e de progresso técnico. Em 1941 Konrad, desenvolveu o computador Z3, para projectar aviões e mísseis.

Em 1943, os Ingleses terminaram um computador chamado Colossus para descodificar mensagens alemãs. O impacto do Colossus no desenvolvimento da indústria do computador foi muito limitado por duas razões importantes: o Colossus não era um computador de uso geral e foi projectado somente para descodificar mensagens secretas. Em segundo, a existência da máquina foi mantida secreta até décadas após a guerra.

Os esforços americanos produziram resultados numa escala maior. Howard H. Aiken (1900-1973), um coordenador de Harvard que trabalhava para a IBM, estava determinado em produzir uma “maquina calculadora” já em 1944 . A finalidade do computador era criar cartas balísticas para a marinha de Estados Unidos. Esta máquina era tão grande quanto um campo de futebol e continha aproximadamente 500 milhas de fios eléctricos. Usava sinais electromagnéticos para mover as peças mecânicas. A máquina era lenta demorando entre 3-5 segundos por cálculo) e inflexível, tanto que as sequências dos cálculos não poderiam ser mudadas, mas poderia executar a aritmética básica, bem como umas equações mais complexas.

Um outro modelo de computador estratega era o computador numérico electrónico ENIAC , produzido por uma parceria entre o governo de Estados Unidos e a Universidade de Pensilvânia. Este computador era uma máquina tão pesada que consumia 160 quilo watts de electricidade, energia que era suficiente para escurecer as luzes em uma grande parte da cidade de Filadélfia. Realizado por John Presper Eckert (1919-1995) e por John W. Mauchly (1907-1980), o ENIAC, ao contrário do Colossus, era um computador “universal” que permitia realizar operações com velocidades 1.000 vezes maiores do que o seu antecessor.

Em de 1940 John Von Neumann (1903-1957) em colaboração com a equipa da faculdade de Pensilvânia, deu início aos conceitos arquitecturais do computador que permaneceram ainda válidos. Von Neumann projectou o computador automático variável electrónico (EDVAC) em 1945, com uma memória capaz de manter um programa armazenado, bem como os relativos dados. Esta "memória de armazenamento" e "transferência de controlos condicionais," permitiam que o computador fosse parado em qualquer ponto e que retomasse então de novo o seu processamento, permitindo uma maior versatilidade na sua programação. O elemento chave da “arquitectura” produzida por Von Neumann era a unidade central de processamento (processador), que permitiu que todas as funções do computador fossem coordenadas por uma única fonte.

Em 1951, o UNIVAC I (computador automático universal), construído por Remington, transformou-se num dos primeiros computadores comercialmente disponíveis. Uma das impressionantes previsões adiantadas pelo UNIVAC predizia o vencedor da eleição presidencial de 1952, Dwight D. Eisenhower.

Os computadores de primeira geração foram caracterizados pelo facto de que as instruções operadas eram face à ordem para a tarefa específica para que o computador devia ser usado. Cada computador tinha um programa código binário diferente chamado “língua de máquina” que lhe dizia como deveria operar. Isto fez o computador difícil de programar e limitou a sua versatilidade e velocidade. Outras características distintivas dos computadores de primeira geração eram o uso dos tubos de vácuo (responsáveis pelo seu tamanho) e cilindros magnéticos para o armazenamento de dados.

Em 1948, a invenção do transístor mudou muito o desenvolvimento do computador. O transístor substituiu o tubo de vácuo nas televisões, os rádios e os computadores grandes, incómodos. Em consequência, o tamanho da maquinaria electrónica foi desde então diminuindo. Acoplado com avanços adiantados na memória do núcleo magnético, os transístores conduziram aos computadores de segunda geração que eram, mais rápidos, de maior confiança e energicamente mais económicos do que seus predecessores. Estes computadores, tornaram-se extremamente importantes para os laboratórios de energia atómica, podendo armazenar uma quantidade enorme de dados, potencialidade esta muito procurada por cientistas atómicos. As máquinas eram caras e o sector comercial não ajudava a sua divulgação . Somente dois “LARCs” foram instalados: um nos laboratórios da radiação de Lawrence em Livermore, Califórnia, que foi chamado (computador atómico da pesquisa de Livermore) e o outro nos E. U., no centro da pesquisa e de desenvolvimento da marinha em Washington. Outros computadores de segunda geração conseguiram substituir a linguagem de programação de códigos binários muito complexos por códigos de programação abreviados.

No princípio da década de 60 um grande numero de computadores de segunda geração era usado nos negócios, em universidades e pelas estruturas governamentais. Estes computadores além de terem um design muito mais atractivo em relação aos da geração anterior, continham transístores em vez de tubos em vácuo, além de componentes e periféricos que hoje em dia são geralmente associadas aos chamados computadores modernos, como impressoras, discos ou fitas de armazenamento de dados, sistema operativo e programas gravados, só para indicar alguns. Um dos exemplos mais importantes deste tipo de computadores foi o IBM 1401 que foi universalmente aceite pela indústria e considerado como modelo de referência. 

Foi a capacidade de guardar programas no seu interior e a linguagem de programação que deu aos computadores a flexibilidade suficiente para poderem ser usados na industria e nos negócios, começando desde então uma dualidade custo-beneficio competitiva e conveniente. 

O conceito de armazenamento dos programas no interior do computador para desenvolver uma tarefa especifica, foi largamente ajudado pela capacidade de memória do próprio computador e podia rapidamente repor outra sequência de execução, permitindo assim proceder a facturação de um cliente e pouco depois proceder a emissão de cheques, ou calcular o total de vendas de um determinado departamento. Linguagens de programação mais complexas como o Cobol (Common Business Oriented Language) e o Fortran (Formula Translator) eram muito comuns nesta altura e expandiram-se até aos nossos dias. Estas linguagens substituíam códigos binários criptados com palavras, frases, formulas matemáticas, simplificando muito a tarefa de programar um computador. A partir deste momento uma série de novas carreiras profissionais dedicadas a esta área começaram a ser criadas, desde programadores, analistas e especialistas de sistemas informáticos, esta industria começou a ter um peso cada vez maior.
Continue a ler

O servidor

Um servidor como sistema de computação centralizada fornece serviços a uma rede de computadores. Os serviços podem ser de natureza diversa. Os computadores que acedem aos serviços de um servidor são chamados clientes. As redes que utilizam servidores são do tipo cliente-servidor, utilizadas em redes de médio e grande porte (com muitas máquinas) e em redes onde a questão da segurança desempenha um papel de grande importância. O termo servidor é largamente aplicado a computadores completos, embora um servidor possa equivaler a um software, a partes de um sistema computacional e até mesmo a uma máquina que não seja necessariamente um computador.

A história dos servidores deriva das redes de computadores. As redes permitiam a comunicação entre diversos computadores, e, com o crescimento destas, surgiu a ideia de dedicar alguns computadores à prestação de serviços à rede, enquanto outros se utilizariam destes serviços. Os servidores ficariam responsáveis pela primeira função.

Com o advento das redes, foi crescendo a necessidade das redes terem servidores e minicomputadores, o que acabou por contribuir para a diminuição do uso das mainframes.

O crescimento das empresas de redes e o crescimento do uso da Internet entre profissionais e usuários comuns foi o grande impulso para o desenvolvimento e aperfeiçoamento de tecnologias para servidores.

Resumidamente, um servidor é um computador mais potente do que um desktop comum. Foi desenvolvido especificamente para transmitir informações e fornecer produtos de software a outros computadores que estiverem unidos a ele por uma rede. 

Os servidores têm o hardware para gerenciar o funcionamento em rede wireless e por cabo Ethernet, normalmente através de um rooter. Foram desenvolvidos para lidar com cargas de trabalho mais pesadas e com mais aplicativos, aproveitando a vantagem de um hardware específico para aumentar a produtividade e reduzir o tempo de inactividade.

Os servidores também oferecem ferramentas de administração remotas, o que significa que um membro da equipa de TI pode verificar o uso e diagnosticar problemas de outro local. Isso também significa que se podem executar manutenções de rotina, como adicionar novos usuários ou alterar senhas.

Existem vários tipos de servidores, como servidores web, servidores de arquivos, servidores de impressão, etc. Uma única máquina pode utilizar simultaneamente vários serviços, dependendo apenas dos recursos de hardware e da carga de trabalho.

De uma forma geral, qualquer PC pode ser usado como um servidor, basta instalar os softwares apropriados. Para tarefas leves, até mesmo máquinas antigas podem prestar bons serviços.



Entretanto, quando falamos de servidores de hospedagem e servidores usados em grandes empresas, o cenário é um pouco diferente. Além de utilizarem serviços e aplicativos muito mais pesados, atendendo a centenas de usuários simultâneos, estes servidores realizam tarefas essenciais, de forma que qualquer interrupção nas suas actividades pode representar um grande prejuízo, ao contrário de um desktop, onde o usuário pode simplesmente reiniciar depois de um ecrã azul, como se nada tivesse acontecido. Um bom servidor deve ser capaz de funcionar por anos a fio, com pouca ou nenhuma manutenção. Além de ser optimizado para um conjunto específico de tarefas, ele necessita ser muito mais estável e confiável do que um desktop típico, o que leva a diferenças nos componentes usados.


Começando do básico, a função de um servidor é disponibilizar serviços (HTTP, FTP, DNS, e-mail, bancos de dados, máquinas virtuais e muitos outros) para um grande número de usuários simultaneamente. De acordo com os serviços usados, determinados componentes são mais importantes do que outros. Um servidor de bancos de dados, por exemplo, depende basicamente do desempenho de acesso a disco em operações de acesso aleatório (um grande volume de pequenas leituras, com setores espalhados por diversos pontos dos discos), o que torna necessário utilizar vários HDs em RAID (em geral é utilizado o modo RAID 5 ou o RAID 6) e uma grande quantidade de memória RAM, usada para cache de disco.

Por outro lado, um servidor destinado a utilizar aplicativos, como um servidor de acesso remoto, por exemplo, necessita predominantemente de processamento e memória. O desempenho do HD não é tão importante (pois os aplicativos usados quase sempre já estarão carregados na memória ou no cache de disco), mas um processador com dois (ou quatro) núcleos e muito cache L2 é essencial para rodar o brutal número de processos simultâneos.

Antigamente, era comum o uso de placas com suporte a dois ou quatro processadores, mas com o lançamento dos processadores dual-core e quad-core elas tornaram-se menos comuns (já que sai muito mais barato usar um único processador quad-core do que usar uma mother-board com 4 processadores separados). Apesar disso, servidores com vários processadores ainda resistem em diversos nichos, agora utilizando processadores AMD Opteron e Intel Xeon com vários núcleos. Juntando quatro processadores AMD Opteron 83xx (quad-core), por exemplo, temos nada menos do que 16 núcleos, o que resulta numa potência de processamento brutal em diversas tarefas de servidor, onde o desempenho é directamente limitado pelo volume de processamento disponível.

By AM
Continue a ler



E agora temos o selfie, a fotografia que uma pessoa tira a si própria, em enquadramento facial, sobretudo através de smartphones. Claro que já tínhamos o Eu, mas o selfie é outra coisa, é mais enrolado e ao mesmo tempo histriónico, o ego estendido por tecnologia. Dá-se-nos como autorretrato controlado na hora, o que em relação à tradição de autorretrato na pintura, por exemplo, é uma adição extraordinária. É possível até apagar e fazer de novo num ápice. Um Eu movediço, no sentido em que se move, e modelado na prontidão.

In: Expresso



Continue a ler



O Nero é um dos mais populares softwares para gravação de CDs e DVDs. Na sua nova versão 7, o programa vem com suporte para as mais recentes soluções multimédia, Blu-Ray e HD-DVD, além de diversas outras melhorias e novos recursos.

Nesta suite o Nero 7 contém 18 aplicações dedicadas ao “home entertainment”, tornando-se com esta nova imagem num verdadeiro kit multimédia. Não é uma aplicação gratuita, mas em condições de gravação adversas, o seu poder vale o seu peso em ouro! Agora também com a certificação para o Windows Vista.

Saiba mais..
Continue a ler




O caminho certo para corrigir a Internet

Deixando de lado uma obsessão com a neutralidade da rede poderia libertar tecnólogos para fazer serviços online ainda melhor.

Por George Anders in Technology Review
Continue a ler


Um dos problemas ou uma das incapacidades do Gmail é sabermos se o destinatário, pessoa a quem enviamos um email, recebeu e leu a mensagem. Há algumas ferramentas, de terceiros, que podem ajudar, já que nativamente não há nada que possamos usar.

É aqui que entra o MailTrack. Este plugin para Google Chrome, coloca à disposição uma funcionalidade muito semelhante a que encontra no WhatsApp, quando um email é enviado, a mensagem recebe um visto, quando é lido, a mensagem recebe dois.

In: Pplware
Continue a ler


O kernel (núcleo) é considerado o coração de qualquer sistema operativo. O GNU/Linux tem kernel, o Mac OS X também , Windows, Android e iOS também. Esta camada é a responsável por fazer a interacção entre o software e hardware, permitindo que os processos comuniquem de forma transparente com os dispositivos electrónicos.

Continue a ler


A Internet surgiu em 1969, nos Estados Unidos da América. Pretendia-se desenvolver uma rede de comunicações que interligasse os super computadores da defesa americana e de algumas grandes universidades, de forma a que, no caso de haver um ataque nuclear, as comunicações não fossem interrompidas. 

Em 1972 a DARPA (Defense Advanced Research Projects Agency) apresentou a ARPANET, garantindo que as ligações existiam entre todas as bases de defesa e, em caso de destruição de uma delas, a comunicação estabelecer-se-ia automaticamente, através de uma outra base.

No início dos anos 80 a ARPANET adoptou um conjunto de protocolos – TCP/IP – que permitiu a universidades, centros de investigação – MSFnet – e outros departamentos militares – MILnet – e governamentais americanos criarem as suas próprias redes e ligarem-se também à ARPANET. 

A Internet, ou apenas Net, é uma rede mundial de computadores ligados entre si através de linhas telefónicas comuns, linhas de comunicação privadas, satélites e outros serviços de telecomunicações.
Continue a ler



Já pode descarregar os seus dados de qualquer serviço da Google, associados à sua conta. É bom saber que se precisarmos dos nossos ficheiros de volta, ou se simplesmente os quisermos guardar num disco externo, por exemplo, não será difícil em consegui-lo.

Continue a ler



A Microsoft já tinha anunciado que o Skype iria ter uma funcionalidade de tradução em tempo real do discurso. A preview já está disponível para Windows 8.1.

Continue a ler


O e-mail ou correio electrónico é a forma mais rápida de comunicar com outra pessoa em qualquer parte do mundo. Para tal basta enviar uma mensagem através da Internet para o endereço de e-mail dessa pessoa.

Os endereços de e-mail são muito semelhantes aos endereços das páginas Web e constituídos sempre da mesma forma, que é:

  • Nome_utilizador@nome_domínio
  • Nome_utilizador identifica-nos a nós próprios e nome_domínio ao fornecedor de serviços Internet (ISP) ou ao site em que temos a nossa conta

Os endereços de e-mail não têm espaços e são geralmente escritos em minúsculas. 

Cada endereço é único em todo o mundo e deve ser digitado correctamente para que a mensagem não seja devolvida.
Continue a ler

“Um ambiente profissional, com boas tecnologias e perto de casa potenciam um elevado desempenho no trabalho e é o que os profissionais mais querem”, diz também a Regus. “Quase um quarto (23%) dos colaboradores quer reduzir o tempo das deslocações e aumentar o equilíbrio entre o trabalho e a vida pessoal e familiar ao trabalhar perto de casa, a nível mundial”.


Saiba mais.....
Continue a ler





  • A Internet fomenta novas formas de cultura. 
  • A Internet ajuda em grande medida a criar e difundir conteúdos multimédia digitais, promovendo a diversidade linguística e as diferentes culturas que existem no mundo 
Também se pode utilizar a Internet para visitar um museu ou ver um vídeo, ouvir programas de rádio produzidos por grandes produtoras, por empresas, organizações ou indivíduos. 

Graças à Internet é possível ligar entre si, bibliotecas, escolas e universidades, e fomentar uma nova "alfabetização electrónica". 

A Internet é usada pelas famílias por um ou outro motivo: para os adultos a Internet é um meio que lhes permite encontrar informações enquanto que para as crianças e jovens funciona mais como uma fonte de divertimento: ligam-se para um bocado bem passado, para aceder a um sítio específico, para se envolver em actividades diversas relacionadas com jogos on-line, sítios web preferidos (música, desportos, etc.).

As tecnologias de informação estão na ordem do dia. Fazem parte de um conjunto maior de tecnologias que se convencionou designar por novas. Porém, algumas, são já o resultado de processos com várias décadas de existência e apenas sofreram alterações ou foram adoptadas graças, em parte, ao aparecimento de novos meios e avanços quer em materiais e técnicas, quer devido a novas necessidades sentidas.

O certo é que o valor da informação se alterou; a informação passou de um acessório, ingrediente ou factor mais ou menos pacífico de obter para uma palavra chave que as organizações procuram avidamente definir. O custo da informação elevou-se e a sua origem já não é a mesma. Passou de ter predominantemente uma origem localizada em organismos, instituições e/ou qualquer outro tipo de organizações normalmente de caracterizada por possuir uma recolha de dados altamente centralizada e assentar numa estrutura "pesada", para uma novo estrutura muito mais dinâmica e autónoma, baseada nas próprias pessoas.

E porquê? em parte devido a que o tempo de resposta e flexibilidade de filtrar as informações necessárias exige actualmente uma maior adaptação a cada caso particular. A unidade operacional que melhor pode desempenhar este papel é obviamente uma pessoa altamente treinada, capaz de tomar decisões entre o importante e o secundário (aquilo a que o senso comum designa por "separar o trigo do joio"). Esta característica assume actualmente uma grande peso na avaliação das capacidades profissionais de um indivíduo. O valor dos recursos humanos é assim multiplicado em relação ao seu "status" anterior; este possui um papel activo e valorizado perante a organização em que actua.

Em consequência, verifica-se que as tecnologias de informação catapultam as pessoas, que possuírem o Know-how para agir neste ambiente, para um plano de evidência, como elementos privilegiados da sociedade actual.

O "know-how" (entendido como saber fazer) é agora a arma que permite uma boa e independente projecção profissional. Este tipo de informação associada a um indivíduo, é única e indivisível; duas pessoas diferentes não reagem da mesma forma nem assimilam a mesma matriz de experiência seja qual for a semelhança das suas práticas.

Mas como cada indivíduo pode obter know-how na sua área de especialização?.Cada vez mais é necessário considerar a formação de nível teórico (académica, garantindo os conceitos resistentes à mudança) como essencial. Mas esta não basta, também é necessário passar por um conjunto de experiências que coloquem o indivíduo perante um alargado leque de problemas para os quais encontrou soluções diversas, todas com vantagens e inconvenientes, devidamente avaliados.

É necessário preparar pessoas para enfrentar situações novas que requerem soluções inovadoras, igualmente novas. O treino de ultrapassagem de obstáculos colocados em diversas situações, com base em situações anteriores cuja solução ou medida a tomar se conhece é ainda o processo mais usual para a aquisição de "know-how" numa dada área. Esta capacidade a desenvolver assemelha-se a um atalho que poupa a uma organização a intervenção e gasto adicional de recursos, graças à intervenção de um único indivíduo.

É interessante observar que actualmente o know-how numa dada área já não é pertença de nenhum estrato profissional fechado; ele é encontrado (e mesmo procurado) em profissionais que necessitam de resolver problemas específicos para desempenhar as suas tarefas e assim recorrem a meios auxiliares de outras áreas, redefinindo o conceito de profissão de forma drástica.

Com base no exposto, ocorrem as mudanças que a informática (nomeadamente a microinformática) imprimiu às organizações, o que permitiu ao indivíduo reconquistar a sua dimensão individual e o seu espaço próprio. O grupo de trabalho é agora assumido como um conjunto de indivíduos e não apenas como uma unidade de trabalho. Este tem de trabalhar de forma cooperativa, introduzindo novas competências no indivíduo como comunicador e dinamizador do trabalho de grupo.

A consciência do valor do indivíduo na sociedade (designada de informação), que começa a dar os primeiros verdadeiros passos, vai alterar as organizações, as relações de trabalho e reavaliar estruturas básicas como sejam a família, a educação, o desporto, a cultura e mesmo a religião.

Nesta perspectiva, é possível arriscar que as tecnologias de informação ajudaram, como um dos factores activos, a humanizar a sociedade (nesta última década), reforçando a o reconhecimento do valor do indivíduo como gerador de ideias e angariador de soluções. As T.I. não são factor único mas são um dos mais influentes e a sua presença é perfeitamente identificável. Talvez por isso, as tecnologias de informação são cada vez mais utilizadas como ponto de partida para o estudo do comportamento da sociedade actual. 

Será pois interessante questionar onde os recentes em serviços como a Internet nos levarão e qual a sua influência no modo de vida do final do século. Pode-se esperar que o reforço da qualidade de vida passa pela humanização das T.I.; para elas próprias atribuírem um novo valor ao seu utilizador: o indivíduo.

O sector dos serviços de Telecomunicações e Informática é um dos de mais rápido crescimento a nível mundial (em alguns países o mercado do rádio móvel – telefones móveis – tem taxas de crescimento superiores a 100%, e os serviços Internet chegam a aumentar mais de 1000%.


Continue a ler



A encontrar recursos educativos e notícias actuais, obter documentos, fotos e imagens importantes, e pesquisar temas muito diversos, das condições climáticas às estatísticas de população. 

Conseguir ajuda para realizar os trabalhos de casa, quer através das enciclopédias on-line e outras obras de referência, ou contactando especialistas. 

Aumentar as capacidades de leitura pelo acesso a conteúdos interessantes, que sugiram outras leituras. 

Aprender a utilizar melhor as novas tecnologias para saber encontrar e utilizar a informação desejada, resolver problemas, comunicar, e sem duvida a adquirir competências cada vez mais mais exigidas no mercado de trabalho.
Continue a ler


A comunicação é o intercâmbio de informação entre sujeitos ou objectos. Inclui temas técnicos (telecomunicação), biológicos (fisiologia, função e evolução) e sociais (jornalismo, relações públicas, publicidade, audiovisual e meios de comunicação de massa).

A comunicação humana é um processo que envolve a troca de informações, e utiliza símbolos como suporte. Existem várias maneiras de comunicar: duas pessoas numa conversa face-a-face, ou através de gestos com as mãos, mensagens enviadas utilizando a rede globalde telecomunicações, a fala, a escrita que permitem interagir com as outras pessoas e efectuar algum tipo de troca de informação.

A comunicação é uma necessidade e algo que está presente na vida do ser humano desde os tempos mais remotos. Trocar informações, registar fatos, expressar ideias e emoções são factores que contribuíram para a evolução das formas de comunicar. Assim, com o passar do tempo, o homem aperfeiçoou sua capacidade de se relacionar.

Tem construído modelos da realidade assim como a maneira de possibilitar a sua interação com essa realidade. Todas as ciências constroem modelos como forma de entendimento ou interação no campo a que se destinam. Desse modo a humanidade vem adquirindo conhecimentos científicos que tem sido transmitido através dos tempos.

Conforme as necessidades surgiram, o homem lançou mão de sua capacidade racional para desenvolver novas tecnologias e mecanismos para a comunicação.
Continue a ler



Esta solução facilita «os novos comportamentos dos utilizadores em relação ao vídeo, tais como a utilização de um segundo ecrã, o vídeo 4K e também uma maior personalização que permite contemplar e partilhar qualquer conteúdo em múltiplos dispositivos», refere a companhia em comunicado.

Tudo aqui
Continue a ler


A Infoisinfo é um motor de busca de empresas e profissionais de diferentes sectores, em Portugal e outros 8 países: Espanha, Brasil, México, Colômbia, Argentina, Chile, Peru e Índia. A plataforma reúne mais de 8,3 milhões de empresas e mais de 4.3 milhões de utilizadores únicos/mês.

Continue a ler



Nos dias de hoje, tornou-se trivial o comentário de que a tecnologia está presente em todos os lugares, o que certamente seria um exagero. Entretanto, não se pode negar que a informática, de forma mais ou menos agressiva, tem intensificado a sua presença em nossas vidas. Gradualmente, o computador vai tornando-se um aparelho corriqueiro em nosso meio social. Paulatinamente, todas as áreas vão fazendo uso deste instrumento e fatalmente todos terão de aprender a conviver com essas máquinas na vida pessoal assim como também na vida profissional.

Na educação não seria diferente. A manipulação dos computadores, tratamento, armazenamento e processamento dos dados estão relacionados com a idéia de informática. O termo informática vem da aglutinação dos vocábulos informação + automática. Buscando um sentido léxico, pode-se dizer que Informática é: “conjunto de conhecimentos e técnicas ligadas ao tratamento racional e automático de informação (armazenamento, análise, organização e transmissão), o qual se encontra associado à utilização de computadores e respectivos programas.” (LUFT, 2006:365).
Almeida (2000: 79), estudioso do assunto, refere-se ao computador como “uma máquina que possibilita testar idéias ou hipóteses, que levam à criação de um mundo abstrato e simbólico, ao mesmo tempo em que permite introduzir diferentes formas de atuação e interação entre as pessoas.” Sendo, por conseguinte, um equipamento que assume cada vez mais diversas funções. 

Como ferramenta de trabalho, contribui de forma significativa para uma elevação da produtividade, diminuição de custos e uma otimização da qualidade dos produtos e serviços. Já como ferramenta de entretenimento as suas possibilidades são quase infinitas.
Através da Internet, é possível ignorar o espaço físico, conhecer e conversar com pessoas sem sair de casa, digitar textos com imagens em movimento (gifs), inserir sons, ver fotos, desenhos, ao mesmo tempo em que podemos ouvir música, assistir vídeos, fazer compras, estreitar relacionamentos em comunidades virtuais, participar de bate-papos (chats), consultar o extrato bancário, pagar contas, ler as últimas notícias em tempo real, enfim, trabalho e lazer se confundem no cyberespaço.

Embora seja um instrumento fabuloso devido a sua grande capacidade de armazenamento de dados e a facilidade na sua manipulação não se pode esquecer que este equipamento não foi desenvolvido com fins pedagógicos, e por isso é importante que se lance sobre o mesmo um olhar crítico e se busque, face às teorias e práticas pedagógicas, o bom uso desse recurso. O mesmo só será uma excelente ferramenta, se houver a consciência de que possibilitará mais rapidamente o acesso ao conhecimento e não, somente, utilizado como uma máquina de escrever, de entretenimento, de armazenagem de dados. Urge usá-lo como tecnologia a favor de uma educação mais dinâmica, como auxiliadora de professores e alunos, para uma aprendizagem mais consistente, não perdendo de vista que o computador deve ter um uso adequado e significativo, pois Informática Educativa nada tem a ver com aulas de computação.
Valente (1993: 16) esclarece que “na educação de forma geral, a informática tem sido utilizada tanto para ensinar sobre computação, o chamado computer literacy, como para ensinar praticamente qualquer assunto por intermédio do computador”. Assim, diversas escolas têm introduzido em seu currículo escolar, o ensino da informática com o pretexto da modernidade. 

Cada vez mais escolas, principalmente as particulares, têm investido em salas de informática, onde geralmente os alunos freqüentam uma vez por semana, acompanhados de um monitor ou na melhor hipótese, de um estagiário de um curso superior ligado à área, proficiente no ensino tecnicista de computação.

Deste modo, ao invés de aprender a utilizar este novo aparato tecnológico em prol de aprendizagem significativa e do acesso universal ao conhecimento, os alunos eram e ainda são “adestrados” no uso da mais nova tecnologia computacional, em aulas descontextualizadas, sem nenhum vínculo com as demais disciplinas e sem nenhuma concepção pedagógica.

Na mesma linha de raciocínio, proliferam em todo país, escolas especializadas no ensino de Informática, na qual o uso da máquina é o principal objeto de estudo, ou seja, o aluno adquire conceitos computacionais, como princípios de funcionamento do computador, noções de hardware e software, além de usos sociais da Tecnologia de Informação e Comunicação – TICs. Entretanto, a maior parte dos cursos oferecidos nessa modalidade podem ser caracterizados como tecnicistas, ou seja, de conscientização do estudante para o uso da informática enquanto técnica, habilitando-o somente para utilizar o equipamento, em nome de uma pseudo-educação profissional que visa somente a formação tecnológica, em detrimento da educação cidadã.

A maioria dos docentes destes cursos, sequer tem formação universitária em Centros de Educação, são inexperientes, tem pouco conhecimento de didática e das teorias pedagógicas, enfim, acabam trazendo para sala de aula, o improviso e as práticas de ensino mecanicistas e repetitivas de cunho tradicionalista sem qualquer preocupação com o desenvolvimento cognitivo de seus alunos. Essa visão de informática pouco altera a realidade educacional, já que traz em seu bojo, um laboratório pouco dinâmico, “engessado” em apostilas estáticas cujas atualizações, quando ocorrem, desvirtuam a verdadeira função social da escola, pois, impossibilitam a construção do conhecimento e a troca de saberes.

A esse respeito, comenta Valente (2003:06) “isto tem contribuído para tornar esta modalidade de utilização do computador extremamente nebulosa, facilitando sua utilização como chamarisco mercadológico”. Certamente esse não é o enfoque da Informática Educativa e, por conseguinte, não é a maneira como a tecnologia deve ser usada no ambiente escolar.

A Informática Educativa se caracteriza pelo uso da informática como suporte ao professor, como um instrumento a mais em sua sala de aula, no qual o professor possa utilizar esses recursos colocados a sua disposição. Nesse nível, o computador é explorado pelo professor especialista em sua potencialidade e capacidade, tornando possível simular, praticar ou vivenciar situações, podendo até sugerir conjecturas abstratas, fundamentais a compreensão de um conhecimento ou modelo de conhecimento que se está construindo. (BORGES, 1999: 136).

A Informática Educativa privilegia a utilização do computador como a ferramenta pedagógica que auxilia no processo de construção do conhecimento. Neste momento, o computador é um meio e não um fim, devendo ser usado considerando o desenvolvimento dos componentes curriculares. Nesse sentido, o computador transforma-se em um poderoso recurso de suporte à aprendizagem, com inúmeras possibilidades pedagógicas, desde que haja uma reformulação no currículo, que se crie novos modelos metodológicos e didáticos, e principalmente que se repense qual o verdadeiro significado da aprendizagem, para que o computador não se torne mais um adereço travestido de modernidade.

Aliás, esta é a principal preocupação dos pesquisadores: se a inserção da informática no âmbito escolar de fato traga inovações com benefícios a todos os envolvidos ou se o computador é apenas mais um modismo passageiro, como ocorreu com o Telensino. O Telensino foi uma modalidade de ensino, uma experiência de utilização da tecnologia, em particular da televisão em sala de aula que se iniciou em 1974, mas foi na década de 90 implementada em todo o Estado do Ceará, atingindo cerca de 300.000 alunos. Esta proposta permitiu ampliar o número de matriculas e universalizar o ensino fundamental principalmente em regiões interioranas do Estado. As escolas foram bem equipadas e os professores foram treinados a se tornarem orientadores de aprendizagem, contudo a falta de assistência técnica, de objetivos claros, de uma metodologia apropriada à realidade local, a falta de material didático (faltavam desde manuais de ensino, fitas cassetes com as aulas, energia elétrica) sem contar o fato do mesmo ter sido implementado de forma unilateral, sem uma reflexão conjunta com professores e alunos, tornou o Telensino uma tentativa fracassada de inserção da tecnologia de informação na sala de aula.

Borges Neto (1999) ao analisar o fenômeno brasileiro de informatização escolar percebeu que a falta de planejamento era a tônica reinante. Segundo o autor, este processo ocorria de forma segmentada, descontextualizada e nuclear, ou seja, adapta-se uma sala para receber os computadores, a famosa sala de informática, contratava-se um especialista (geralmente indicado por um órgão desvinculado da prática educativa), fazia-se um marketing junto à comunidade escolar, e, enfim, reordenava-se a grade curricular para acomodar as aulas de informática. Enquanto que para o professor de sala de aula (polivalente ou hora-aula), tal processo ocorria desapercebidamente, pois continuava dentro da sua triste realidade, turmas superlotadas, alunos desmotivados, falta de material didático, tendo como únicas ferramentas tecnológicas: o quadro negro, o giz, a voz e quando muito, o livro didático.

Segundo Valente (1993: 01) “para a implantação dos recursos tecnológicos de forma eficaz na educação são necessários quatro ingredientes básicos: o computador, o software educativo, o professor capacitado para usar o computador como meio educacional e o aluno”, sendo que nenhum se sobressai ao outro. O autor acentua que, “o computador não é mais o instrumento que ensina o aprendiz, mas a ferramenta com a qual o aluno desenvolve algo e, portanto, o aprendizado ocorre pelo fato de estar executando uma tarefa por intermédio do computador” (p.13).

Quando o próprio aluno cria, faz, age sobre o software, decidindo o que melhor solucionaria seu problema, torna-se um sujeito ativo de sua aprendizagem O computador ao ser manipulado pelo indivíduo permite a construção e reconstrução do conhecimento, tornando a aprendizagem uma descoberta.. Quando a informática é utilizada a serviço da educação emancipadora, o aluno ganha em qualidade de ensino e aprendizagem.

A mudança da função do computador como meio educacional acontece juntamente com um questionamento da função da escola e do papel do professor. A verdadeira função do aparato educacional não deve ser a de ensinar, mas sim a de criar condições de aprendizagem. Isso significa que o professor precisa deixar de ser o repassador de conhecimento – o computador pode fazer isso e o faz tão eficiente quanto professor – e passar a ser o criador de ambientes de aprendizagem e o facilitador do processo de desenvolvimento intelectual do aluno. (VALENTE, 1993: 06).

A chegada das tecnologias no ambiente escolar provoca uma mudança de paradigmas. A Informática Educativa nos oferece uma vastidão de recursos que, se bem aproveitados, nos dão suporte para o desenvolvimento de diversas atividades com os alunos. Todavia, a escola contemporânea continua muito arraigada ao padrão jesuítico, no qual o professor fala, o aluno escuta, o professor manda, o aluno obedece. A chegada da era digital coloca a figura do professor como um “mediador” de processos que são, estes sim, capitaneados pelo próprio sujeito aprendiz. 

Porém, para que isso ocorra de fato, é preciso que o professor não tenha “medo” da possibilidade de autonomia do aluno, pois muitos acreditam que com o computador em sala de aula, o professor perde o seu lugar.

Pelo contrário, as máquinas nunca substituirão o professor, desde que ele re-signifique seu papel e sua identidade a partir da utilização das novas abordagens pedagógicas que as tecnologias facilitam. A adoção das TICs em sala de aula traz para os educandos, muitos caminhos a percorrer e para isso é preciso a presença do professor, pois é ele quem vai dinamizar todo este novo processo de ensino-aprendizagem por intermédio dessa ferramenta, explorando-a ao máximo com criatividade, conseguindo o intuito maior da Informática Educativa: mudança, dinamização, envolvimento, por parte do aluno na aprendizagem. Entre as vantagens potenciais desta modalidade na escola, está o fato desta:
(…) a) ser ‘sinônimo’ de status social, visto que seu usuário, geralmente crianças e adolescentes, experimentam a inversão da relação de poder do conhecimento que consideram ser propriedade dos pais e professores, quando estes não dominam a Informática; b) possibilitar resposta imediata, o erro pode produzir resultados interessantes; c) não ter o erro como fracasso e sim, um elemento para exigir reflexão/busca de outro caminho. Além disso, o computador não é um instrumento autônomo, não faz nada sozinho, precisa de comandos para poder funcionar, desenvolvendo o poder de decisão, iniciativa e autonomia; d) Favorece a flexibilidade do pensamento; e) estimula o desenvolvimento do raciocínio lógico, pois diante de uma situação-problema é necessário que o aluno analise os dados apresentados, descubra o que deve ser feito, levante hipóteses, estabeleça estratégias, selecione dados para a solução, busque diferentes caminhos para seguir; f) Possibilita ainda o desenvolvimento do foco de atenção-concentração; g) favorece a expressão emocional, o prazer com o sucesso e é um espaço onde a criança/jovem pode demonstrar suas frustrações, raiva, projeta suas emoções na escolha de produção de textos ou desenhos. (FERREIRA, 2002:29)

A utilização da Informática Educativa pode juntar elementos da educação formal com outros da não formal, beneficiando tanto o aspecto prático dos meios não formais quanto a teoria mais generalizada presente nos meios acadêmicos. Por intermédio de sites na Internet, por exemplo, pode trazer para dentro da sala de aula, filmes ilustrando a vida de grandes vultos do passado, ou documentários detalhando as etapas no desenvolvimento de seres vivos, dentre outros.

A Internet possibilita um intercâmbio entre localidades distantes, gerando trocas de experiências e contato com pessoas de outros países. Essas “pontes” que hoje existem entre diferentes mundos representam o único meio de acesso para quem não vive perto dos grandes centros urbanos. Somente nas grandes cidades pode-se conviver diretamente com a informação, ou seja, uma fatia minoritária de pessoas tem acesso à educação de qualidade, pois tem acesso à universidade, bibliotecas, laboratórios, teatros, cinemas, museus, centros culturais etc. É necessário, deste modo, democratizar o acesso ao conhecimento, às tecnologias da informação e da comunicação, seja para a formação continuada dos professores, seja para o enriquecimento da atividade presencial de mestres e alunos.

A democratização do acesso a esses produtos tecnológicos é talvez o maior desafio para esta sociedade demandando esforços e mudanças nas esferas econômica e educacional. Para que todos possam ter informações e utilizar-se de modo confortável as novas tecnologias, é preciso um grande esforço político. Como as tecnologias estão permanentemente em mudança, a aprendizagem contínua é conseqüência natural do momento social e tecnológico que vivemos, a ponto de podermos chamar nossa sociedade de “sociedade de aprendizagem”. Todavia, a utilização de ferramentas computacionais em sala de aula, ainda parece ser um desafio para alguns professores que se sentem inseguros em conciliar os conteúdos acadêmicos com instrumentos e ambientes multimídia, os quais ainda não têm pleno domínio.

Certamente, o papel do professor está mudando, seu maior desafio é reaprender a aprender. Compreender que não é mais a única fonte de informação, o transmissor do conhecimento, aquele que ensina, mas aquele que faz aprender, tornando-se um mediador entre o conhecimento e a realidade, um especialista no processo de aprendizagem, em prol de uma educação que priorize não apenas o domínio dos conteúdos, mas o desenvolvimento de habilidades, competências, inteligências, atitudes e valores.

A utilização das TICs no ambiente escolar contribui para essa mudança de paradigmas, sobretudo, para o aumento da motivação em aprender, pois as ferramentas de informática exercem um fascínio em nossos alunos. Se a tecnologia for utilizada de forma adequada, tem muito a nos oferecer, a aprendizagem se tornará mais fácil e prazerosa, pois “as possibilidade de uso do computador como ferramenta educacional está crescendo e os limites dessa expansão são desconhecidos” (VALENTE, 1993: 01).

Compete ao professor e aluno explorarem ao máximo todos os recursos que a tecnologia nos apresenta, de forma a colaborar mais e mais com a aquisição de conhecimento. Ressalta-se ainda que o educando é antes de tudo, o fim, para quem se aplica o desenvolvimento das práticas educativas, levando-o a se inteirar e construir seu conhecimento, por intermédio da interatividade com o ambiente de aprendizado.

É papel da escola democratizar o acesso ao computador, promovendo a inclusão sócio-digital de nossos alunos. É preciso também que os dirigentes discutam e compreendam as possibilidades pedagógicas deste valioso recurso. Contudo, é preciso estar conscientes de que não é somente a introdução da tecnologia em sala de aula, que trará mudanças na aprendizagem dos alunos, o computador não é uma “panacéia” para todos os problemas educacionais.

As ferramentas computacionais, especialmente a Internet, podem ser um recurso rico em possibilidades que contribuam com a melhoria do nível de aprendizagem, desde que haja uma reformulação no currículo, que se crie novos modelos metodológicos, que se repense qual o significado da aprendizagem. Uma aprendizagem onde haja espaço para que se promova a construção do conhecimento. Conhecimento, não como algo que se recebe, mas concebido como relação, ou produto da relação entre o sujeito e seu conhecimento. Onde esse sujeito descobre, constrói e modifica, de forma criativa seu próprio conhecimento.

O grande desafio da atualidade consiste em trazer essa nova realidade para dentro da sala de aula, o que implica mudar, de maneira significativa, o processo educacional como um todo.


Referências

ALMEIDA, M E de. Informática e formação de professores. Brasília: Ministério da Educação, 2000.
BORGES NETO, H. Uma classificação sobre a utilização do computador pela escola.Revista Educação em Debate, ano 21, v. 1, n. 27, p. 135-138, Fortaleza, 1999.
FERREIRA, A. L. D. Informática educativa na educação infantil: Riscos e Benefícios.Fortaleza: Universidade Federal do Ceará-UFC, 2000. Monografia (Especialização em Informática Educativa)..
LUFT, C.P Dicionário Luft. São Paulo: Atica, 2006.
VALENTE, J. A. Computadores e conhecimento: repensando a educação. Campinas: UNICAMP. 1993.

ROCHA, SSD. O uso do computador na Educação: a informática educativa. Revista Espaço Acadêmico. n.85 ano VIII. junho de 2008. Aceda aqui.
Continue a ler



Para quem se preocupa com segurança informática e cyber attacks a nivel mundial, a Norse Corporation lançou o seu mapa em tempo real. Espectacular !

In: http://map.ipviking.com/
Continue a ler

Continue a ler





A Visceral Games (produtores da aclamada série Dead Space), desvendaram recentemente Battlefield Hardline, levando este premiado franchise a um novo mundo, repleto de novas maneiras de jogar.

Com chegada à Europa a 23 de Outubro, Battlefield Hardline coloca os jogadores no centro da guerra e do crime nas ruas sujas e glamorosas de Los Angeles e Miami, permitindo-lhes que vivam a sua fantasia de serem polícias ou criminosos. A fantasia começa hoje num evento em grande – a Visceral Games está a permitir que Battlefield Hardline possa ser jogado agora, pelo público, num modo beta fechado, multiplayer apenas para jogadores convidados, em PlayStation 4 e em Origin para PC.

Sendo Battlefield já conhecido como uma das melhores, senão a melhor série de acção na primeira pessoa, Battlefield Hardline vê a Visceral Games trazer o pedigree que já tem em storytelling para single-players e fornecer uma história envolvente num ambiente que lembra os dramas criminais modernos televisivos.

Esta aproximação a uma jogabilidade singleplayer mais envolvente e mais robusta será uma forma de contra-atacar todos aqueles que se queixam desta vertente do jogo, e que elogiam o principal rival de Battlefield (Call of Duty) como mais forte no singleplayer.

Saiba tudo aqui.
Continue a ler


Sabe-se que a DARPA investiu no PLINY, uma ferramenta de auto-correção para programadores. 
Continue a ler



Os utilizadores de Android que estejam a usar equipamentos com 3 ou menos anos podem estar, inadvertidamente, a anunciar ao mundo a que redes sem fios se andaram a ligar.

Este comportamento foi agora descoberto e pode levar a que seja possível a qualquer um saber onde estes utilizadores têm andado. A informação em si não é critica, mas pode revelar alguns comportamentos dos utilizadores.

A descoberta deste comportamento foi feita e revelada pela Electronic Frontier Foundation, que estudou o comportamento do Android no processo de associação às redes sem fios e quais os dados que eventualmente libertava.

O problema surge em todos os equipamentos que tenham instalada a versão Honeycomb (Android 3.1) ou posterior, e permite que no processo de tentativa de ligação a redes sem fios, o Android se tente ligar a redes sem fios onde já antes tenha estado ligado, revelando assim os seus nomes.

Esta situação acontece principalmente quando os telefones estão no modo sleep (ecrã desligado) e procuram aceder a redes de dados.

Ao tentar esta ligação os equipamentos procuram conectar-se a redes previamente usadas, para que evite usar as ligações de dados dos operadores móveis, que são naturalmente mais caras.

O processo assenta no Preferred Network Offload (PNO), que foi introduzido no Android Honeycomb e que procura enviar para o ar tentativas de ligações a redes sem fios, para procurar garantir que os dispositivos conseguem ligação à Internet.

Claro que qualquer um que esteja junto dos equipamentos nestas alturas vai ter a possibilidade de ter acesso a esses nomes das redes onde recentemente estiveram ligados.

Este problema será tanto maior quanto o nome das redes for mais descritivo, mas não agrega qualquer dado adicional sobre os utilizadores ou sobre essas mesmas redes.

A Google já reagiu a este problema reportado pela EFF e garante que irá analisar o caso de forma a poder ultrapassar o problema.

Mas a EFF descobriu que não é apenas o Android que tem este problema. Pelo menos a versão 5 do iOS apresenta também este problema, estando as versões mais recentes livres dele. No caso dos desktops, tanto o OSX como o Windows revelaram um comportamento similar, procurando ligar-se a redes recentemente acedidas.

Depois de outros problemas associados à partilha de informação de localização dos utilizadores, a Google tem em mãos outro problema similar para resolver.
Solução

No caso do Android existe já uma forma simples de contornar este comportamento, mas que resultará num aumento dos consumos de bateria e de dados 3G.

O utilizador tem apenas de aceder às Definições, depois a redes Wi-Fi e aí dentro a Avançadas. Dentro desta área deve alterar a definição “Manter Wi-Fi ligada durante suspensão de Sempre para Nunca.

Saiba tudo aqui.
Continue a ler




Escrever código de forma colaborativa com CodeShare é possível. Uma aplicação Web que também permite comunicação de voz e vídeo.


Saiba mais
Continue a ler

15/11/2014



Muitos jogadores de PC aguardam ansiosamente o lançamento de placas de vídeo de última geração, na esperança de que o novo hardware vai aumentar as taxas de frame e melhorar os jogos mais recentes. No entanto, enquanto a actualização da placa gráfica é quase sempre uma boa maneira de aumentar o desempenho do jogo ou melhorar a qualidade da imagem, as novas placas tendem a ser caros - e  nem sempre são necessárias.
Continue a ler

12/11/2014



12 ideias e dicas que pode facilmente utilizar para aumentar as visitas ao seu site ou blog.
Continue a ler

10/11/2014



Foi realizado , um pequeno vídeo do Halo 5: Guardiões  mostrou um novo recurso . Os jogadores serão de correr no jogo, que está previsto para 2015 .

Saiba mais...




Continue a ler