22/11/2014
Tudo aqui.
A rede wireless é uma rede de computadores estruturada a partir de equipamentos que não necessitam de cabos para conexão. A tecnologia ganhou sua ascensão há poucos anos e substituiu com eficácia as famosas redes por cabo, que perduraram por muitos anos.
A rede wireless funciona por meio de aparelhos de radiofrequência ou infravermelho que captam os sinais de rede e os transmitem para o computador. Geralmente estes aparelhos são modens e routers, já conhecidos pelos utilizadores. Com eles, pode aceder-se à internet mesmo estando há alguns metros de distância do ponto de acesso.
Seja em casa, no escritório, comércio e até mesmo em locais públicos, com a tecnologia wireless o acesso tornou-se muito mais fácil, rápido e práctico. Assim, pode aceder aos e-mails, redes sociais e outros sites em qualquer local que disponibilize essa rede.
As redes wireless classificam-se como redes locais (WLAN), redes de curta distância ou pessoais (WPAN), redes de longa distância ou geograficamente distribuídas (WWAN) e redes metropolitanas (WMAN), classificações feitas de acordo com a área de abrangência das redes.
Outro tipo de classificação conhecida para as redes deste tipo são as atribuições a, b, g e n. São elas:
- 802.11a: alcança a velocidade de 54 Mbps, tem suporte para 64 utilizadores por ponto de acesso e opera na frequência de 5,8 GHz. As vantagens principais são a ausência de interferência e a velocidade.
- 802.11b: apresenta transferência média de 11 Mbps, velocidade de 22 Mbps, opera na frequência de 2.4 GHz e suporta 32 utilizadores por ponto de acesso. A vantagem é a disponibilidade gratuita no mundo todo, e a desvantagem é a interferência na recepção e transmissão de sinais.
- 802.11g: conta com velocidade de 54 Mbps e tem frequência de 2,4 GHz. O ponto positivo é a alta velocidade.
- 802.11n: novo padrão aprovado para redes sem fio. As taxas de transferência disponíveis vão de 65 Mbps a 300 Mbps e a faixa de frequência são de 2,4 GHz ou 5 GHz.
As pessoas tendem a personalizar as coisas para deixá-las mais ao seu gosto. Mudam as cores, formatos, e muito mais.
Fazem isto com carros, móveis, com as suas casas e também com os seus Computadores. Esta modalidade, especifíca, é chamada de Case Modding, que traduzida literalmente significa modificação de caixa.
Na verdade, Case Modding é a personalização dos gabinetes dos computadores e das carcaças dos notebooks.
Os humanos podem ver apenas uma pequena parte do espectro eletromagnético. Outros animais podem ver em ultravioleta e infravermelho. Mas, infelizmente, ninguém consegue ver as redes Wi-Fi.
Agora, um aparelho capta redes disponíveis e fotografa-as com longa exposição. Como resultado temos uma série de fotos incríveis, com o sinal de Wi-Fi revelado em diversas cores, como verde, azul, vermelho e amarelo.
Para conseguir o feito, foi criado um dispositivo que mede as propriedades de sinais Wi-Fi e mostra uma cor. O vermelho demonstra um sinal forte, enquanto o azul representa o mais fraco.
Saiba mais..
O aquecimento global, alterações climáticas e excesso de lixo estão no centro de algumas das principais preocupações que atormentam a humanidade; sustentabilidade ambiental. Se continuarmos a utilizar os recursos naturais ao mesmo ritmo que mantemos desde a revolução industrial os danos à bioesfera serão irreversíveis.
A economia digital continua em crescimento, com 60% da população europeia a utilizar a internet regularmente em 2009. A banda larga está disponível para 94% da população e é acedida por 56% dos agregados e 83% das empresas. A popularidade das redes sociais e dos vídeos online alterou o modo das pessoas se distraírem e informarem, resultando em enormes impactos a nível social e económico. À medida que as TIC e a Internet penetram a economia europeia devido à tendencial utilização das aplicações e serviços de banda larga, em associação à difusão dos dispositivos wireless, o impacto nas estruturas e dinâmicas da sociedade europeia tornou-se identicamente considerável.
Os consumidores de tecnologia impõem constantemente dispositivos mais pequenos, eficientes e potentes que os que detêm presentemente. Smartphones, iPhones e BlackBerrys exibem uma propensão em todas as formas de tecnologia móvel, orientados para dispositivos mais pequenos que executam cada vez maior número de funções.
Estatísticas do governo dos EUA mostram que os centros de dados usam tanta energia como o conjunto da indústria automóvel; os EUA constroem em média 10 milhões de carros por ano.
A utilização de soluções e metodologias Green IT, quando vistas para além das necessidades de conformidade legal e regulamentar, constituem aquele tipo raro de acções, que não só reduzem os custos operacionais, como diferenciam a marca e contribuem para a satisfação dos clientes.
Desta forma, as soluções de gestão das TI formam um elo fundamental e desempenham um papel importante na política de desenvolvimento sustentável das empresas. As questões ambientais devem ser cada vez mais importantes no dia-a-dia empresarial. O impacto da nova legislação juntamente com o nível crescente de preocupação dos clientes, significa que poucas organizações se podem dar ao luxo de ser complacentes quando se trata de monitorizar o impacto ambiental das suas actividades.
By Fatma
Com o início da segunda guerra mundial, os governos procuraram desenvolver máquinas computorizadas para explorar o próprio potencial estratégico. Isto deu início a uma serie de projectos de desenvolvimento de computadores e de progresso técnico. Em 1941 Konrad, desenvolveu o computador Z3, para projectar aviões e mísseis.
Em 1943, os Ingleses terminaram um computador chamado Colossus para descodificar mensagens alemãs. O impacto do Colossus no desenvolvimento da indústria do computador foi muito limitado por duas razões importantes: o Colossus não era um computador de uso geral e foi projectado somente para descodificar mensagens secretas. Em segundo, a existência da máquina foi mantida secreta até décadas após a guerra.
Os esforços americanos produziram resultados numa escala maior. Howard H. Aiken (1900-1973), um coordenador de Harvard que trabalhava para a IBM, estava determinado em produzir uma “maquina calculadora” já em 1944 . A finalidade do computador era criar cartas balísticas para a marinha de Estados Unidos. Esta máquina era tão grande quanto um campo de futebol e continha aproximadamente 500 milhas de fios eléctricos. Usava sinais electromagnéticos para mover as peças mecânicas. A máquina era lenta demorando entre 3-5 segundos por cálculo) e inflexível, tanto que as sequências dos cálculos não poderiam ser mudadas, mas poderia executar a aritmética básica, bem como umas equações mais complexas.
Um outro modelo de computador estratega era o computador numérico electrónico ENIAC , produzido por uma parceria entre o governo de Estados Unidos e a Universidade de Pensilvânia. Este computador era uma máquina tão pesada que consumia 160 quilo watts de electricidade, energia que era suficiente para escurecer as luzes em uma grande parte da cidade de Filadélfia. Realizado por John Presper Eckert (1919-1995) e por John W. Mauchly (1907-1980), o ENIAC, ao contrário do Colossus, era um computador “universal” que permitia realizar operações com velocidades 1.000 vezes maiores do que o seu antecessor.
Em de 1940 John Von Neumann (1903-1957) em colaboração com a equipa da faculdade de Pensilvânia, deu início aos conceitos arquitecturais do computador que permaneceram ainda válidos. Von Neumann projectou o computador automático variável electrónico (EDVAC) em 1945, com uma memória capaz de manter um programa armazenado, bem como os relativos dados. Esta "memória de armazenamento" e "transferência de controlos condicionais," permitiam que o computador fosse parado em qualquer ponto e que retomasse então de novo o seu processamento, permitindo uma maior versatilidade na sua programação. O elemento chave da “arquitectura” produzida por Von Neumann era a unidade central de processamento (processador), que permitiu que todas as funções do computador fossem coordenadas por uma única fonte.
Em 1951, o UNIVAC I (computador automático universal), construído por Remington, transformou-se num dos primeiros computadores comercialmente disponíveis. Uma das impressionantes previsões adiantadas pelo UNIVAC predizia o vencedor da eleição presidencial de 1952, Dwight D. Eisenhower.
Os computadores de primeira geração foram caracterizados pelo facto de que as instruções operadas eram face à ordem para a tarefa específica para que o computador devia ser usado. Cada computador tinha um programa código binário diferente chamado “língua de máquina” que lhe dizia como deveria operar. Isto fez o computador difícil de programar e limitou a sua versatilidade e velocidade. Outras características distintivas dos computadores de primeira geração eram o uso dos tubos de vácuo (responsáveis pelo seu tamanho) e cilindros magnéticos para o armazenamento de dados.
Em 1948, a invenção do transístor mudou muito o desenvolvimento do computador. O transístor substituiu o tubo de vácuo nas televisões, os rádios e os computadores grandes, incómodos. Em consequência, o tamanho da maquinaria electrónica foi desde então diminuindo. Acoplado com avanços adiantados na memória do núcleo magnético, os transístores conduziram aos computadores de segunda geração que eram, mais rápidos, de maior confiança e energicamente mais económicos do que seus predecessores. Estes computadores, tornaram-se extremamente importantes para os laboratórios de energia atómica, podendo armazenar uma quantidade enorme de dados, potencialidade esta muito procurada por cientistas atómicos. As máquinas eram caras e o sector comercial não ajudava a sua divulgação . Somente dois “LARCs” foram instalados: um nos laboratórios da radiação de Lawrence em Livermore, Califórnia, que foi chamado (computador atómico da pesquisa de Livermore) e o outro nos E. U., no centro da pesquisa e de desenvolvimento da marinha em Washington. Outros computadores de segunda geração conseguiram substituir a linguagem de programação de códigos binários muito complexos por códigos de programação abreviados.
No princípio da década de 60 um grande numero de computadores de segunda geração era usado nos negócios, em universidades e pelas estruturas governamentais. Estes computadores além de terem um design muito mais atractivo em relação aos da geração anterior, continham transístores em vez de tubos em vácuo, além de componentes e periféricos que hoje em dia são geralmente associadas aos chamados computadores modernos, como impressoras, discos ou fitas de armazenamento de dados, sistema operativo e programas gravados, só para indicar alguns. Um dos exemplos mais importantes deste tipo de computadores foi o IBM 1401 que foi universalmente aceite pela indústria e considerado como modelo de referência.
Foi a capacidade de guardar programas no seu interior e a linguagem de programação que deu aos computadores a flexibilidade suficiente para poderem ser usados na industria e nos negócios, começando desde então uma dualidade custo-beneficio competitiva e conveniente.
O conceito de armazenamento dos programas no interior do computador para desenvolver uma tarefa especifica, foi largamente ajudado pela capacidade de memória do próprio computador e podia rapidamente repor outra sequência de execução, permitindo assim proceder a facturação de um cliente e pouco depois proceder a emissão de cheques, ou calcular o total de vendas de um determinado departamento. Linguagens de programação mais complexas como o Cobol (Common Business Oriented Language) e o Fortran (Formula Translator) eram muito comuns nesta altura e expandiram-se até aos nossos dias. Estas linguagens substituíam códigos binários criptados com palavras, frases, formulas matemáticas, simplificando muito a tarefa de programar um computador. A partir deste momento uma série de novas carreiras profissionais dedicadas a esta área começaram a ser criadas, desde programadores, analistas e especialistas de sistemas informáticos, esta industria começou a ter um peso cada vez maior.
O servidor
Um servidor como sistema de computação centralizada fornece serviços a uma rede de computadores. Os serviços podem ser de natureza diversa. Os computadores que acedem aos serviços de um servidor são chamados clientes. As redes que utilizam servidores são do tipo cliente-servidor, utilizadas em redes de médio e grande porte (com muitas máquinas) e em redes onde a questão da segurança desempenha um papel de grande importância. O termo servidor é largamente aplicado a computadores completos, embora um servidor possa equivaler a um software, a partes de um sistema computacional e até mesmo a uma máquina que não seja necessariamente um computador.
A história dos servidores deriva das redes de computadores. As redes permitiam a comunicação entre diversos computadores, e, com o crescimento destas, surgiu a ideia de dedicar alguns computadores à prestação de serviços à rede, enquanto outros se utilizariam destes serviços. Os servidores ficariam responsáveis pela primeira função.
Com o advento das redes, foi crescendo a necessidade das redes terem servidores e minicomputadores, o que acabou por contribuir para a diminuição do uso das mainframes.
O crescimento das empresas de redes e o crescimento do uso da Internet entre profissionais e usuários comuns foi o grande impulso para o desenvolvimento e aperfeiçoamento de tecnologias para servidores.
Resumidamente, um servidor é um computador mais potente do que um desktop comum. Foi desenvolvido especificamente para transmitir informações e fornecer produtos de software a outros computadores que estiverem unidos a ele por uma rede.
Os servidores têm o hardware para gerenciar o funcionamento em rede wireless e por cabo Ethernet, normalmente através de um rooter. Foram desenvolvidos para lidar com cargas de trabalho mais pesadas e com mais aplicativos, aproveitando a vantagem de um hardware específico para aumentar a produtividade e reduzir o tempo de inactividade.
Os servidores também oferecem ferramentas de administração remotas, o que significa que um membro da equipa de TI pode verificar o uso e diagnosticar problemas de outro local. Isso também significa que se podem executar manutenções de rotina, como adicionar novos usuários ou alterar senhas.
Existem vários tipos de servidores, como servidores web, servidores de arquivos, servidores de impressão, etc. Uma única máquina pode utilizar simultaneamente vários serviços, dependendo apenas dos recursos de hardware e da carga de trabalho.
De uma forma geral, qualquer PC pode ser usado como um servidor, basta instalar os softwares apropriados. Para tarefas leves, até mesmo máquinas antigas podem prestar bons serviços.
Entretanto, quando falamos de servidores de hospedagem e servidores usados em grandes empresas, o cenário é um pouco diferente. Além de utilizarem serviços e aplicativos muito mais pesados, atendendo a centenas de usuários simultâneos, estes servidores realizam tarefas essenciais, de forma que qualquer interrupção nas suas actividades pode representar um grande prejuízo, ao contrário de um desktop, onde o usuário pode simplesmente reiniciar depois de um ecrã azul, como se nada tivesse acontecido. Um bom servidor deve ser capaz de funcionar por anos a fio, com pouca ou nenhuma manutenção. Além de ser optimizado para um conjunto específico de tarefas, ele necessita ser muito mais estável e confiável do que um desktop típico, o que leva a diferenças nos componentes usados.
Começando do básico, a função de um servidor é disponibilizar serviços (HTTP, FTP, DNS, e-mail, bancos de dados, máquinas virtuais e muitos outros) para um grande número de usuários simultaneamente. De acordo com os serviços usados, determinados componentes são mais importantes do que outros. Um servidor de bancos de dados, por exemplo, depende basicamente do desempenho de acesso a disco em operações de acesso aleatório (um grande volume de pequenas leituras, com setores espalhados por diversos pontos dos discos), o que torna necessário utilizar vários HDs em RAID (em geral é utilizado o modo RAID 5 ou o RAID 6) e uma grande quantidade de memória RAM, usada para cache de disco.
Por outro lado, um servidor destinado a utilizar aplicativos, como um servidor de acesso remoto, por exemplo, necessita predominantemente de processamento e memória. O desempenho do HD não é tão importante (pois os aplicativos usados quase sempre já estarão carregados na memória ou no cache de disco), mas um processador com dois (ou quatro) núcleos e muito cache L2 é essencial para rodar o brutal número de processos simultâneos.
Antigamente, era comum o uso de placas com suporte a dois ou quatro processadores, mas com o lançamento dos processadores dual-core e quad-core elas tornaram-se menos comuns (já que sai muito mais barato usar um único processador quad-core do que usar uma mother-board com 4 processadores separados). Apesar disso, servidores com vários processadores ainda resistem em diversos nichos, agora utilizando processadores AMD Opteron e Intel Xeon com vários núcleos. Juntando quatro processadores AMD Opteron 83xx (quad-core), por exemplo, temos nada menos do que 16 núcleos, o que resulta numa potência de processamento brutal em diversas tarefas de servidor, onde o desempenho é directamente limitado pelo volume de processamento disponível.
By AM
E agora temos o selfie, a fotografia que uma pessoa tira a si própria, em enquadramento facial, sobretudo através de smartphones. Claro que já tínhamos o Eu, mas o selfie é outra coisa, é mais enrolado e ao mesmo tempo histriónico, o ego estendido por tecnologia. Dá-se-nos como autorretrato controlado na hora, o que em relação à tradição de autorretrato na pintura, por exemplo, é uma adição extraordinária. É possível até apagar e fazer de novo num ápice. Um Eu movediço, no sentido em que se move, e modelado na prontidão.
In: Expresso
O Nero é um dos mais populares softwares para gravação de CDs e DVDs. Na sua nova versão 7, o programa vem com suporte para as mais recentes soluções multimédia, Blu-Ray e HD-DVD, além de diversas outras melhorias e novos recursos.
Nesta suite o Nero 7 contém 18 aplicações dedicadas ao “home entertainment”, tornando-se com esta nova imagem num verdadeiro kit multimédia. Não é uma aplicação gratuita, mas em condições de gravação adversas, o seu poder vale o seu peso em ouro! Agora também com a certificação para o Windows Vista.
Saiba mais..
O caminho certo para corrigir a Internet
Deixando de lado uma obsessão com a neutralidade da rede poderia libertar tecnólogos para fazer serviços online ainda melhor.
Um dos problemas ou uma das incapacidades do Gmail é sabermos se o destinatário, pessoa a quem enviamos um email, recebeu e leu a mensagem. Há algumas ferramentas, de terceiros, que podem ajudar, já que nativamente não há nada que possamos usar.
É aqui que entra o MailTrack. Este plugin para Google Chrome, coloca à disposição uma funcionalidade muito semelhante a que encontra no WhatsApp, quando um email é enviado, a mensagem recebe um visto, quando é lido, a mensagem recebe dois.
In: Pplware
A Internet surgiu em 1969, nos Estados Unidos da América. Pretendia-se desenvolver uma rede de comunicações que interligasse os super computadores da defesa americana e de algumas grandes universidades, de forma a que, no caso de haver um ataque nuclear, as comunicações não fossem interrompidas.
Em 1972 a DARPA (Defense Advanced Research Projects Agency) apresentou a ARPANET, garantindo que as ligações existiam entre todas as bases de defesa e, em caso de destruição de uma delas, a comunicação estabelecer-se-ia automaticamente, através de uma outra base.
No início dos anos 80 a ARPANET adoptou um conjunto de protocolos – TCP/IP – que permitiu a universidades, centros de investigação – MSFnet – e outros departamentos militares – MILnet – e governamentais americanos criarem as suas próprias redes e ligarem-se também à ARPANET.
A Internet, ou apenas Net, é uma rede mundial de computadores ligados entre si através de linhas telefónicas comuns, linhas de comunicação privadas, satélites e outros serviços de telecomunicações.
O e-mail ou correio electrónico é a forma mais rápida de comunicar com outra pessoa em qualquer parte do mundo. Para tal basta enviar uma mensagem através da Internet para o endereço de e-mail dessa pessoa.
Os endereços de e-mail são muito semelhantes aos endereços das páginas Web e constituídos sempre da mesma forma, que é:
- Nome_utilizador@nome_domínio
- Nome_utilizador identifica-nos a nós próprios e nome_domínio ao fornecedor de serviços Internet (ISP) ou ao site em que temos a nossa conta
Os endereços de e-mail não têm espaços e são geralmente escritos em minúsculas.
Cada endereço é único em todo o mundo e deve ser digitado correctamente para que a mensagem não seja devolvida.
“Um ambiente profissional, com boas tecnologias e perto de casa potenciam um elevado desempenho no trabalho e é o que os profissionais mais querem”, diz também a Regus. “Quase um quarto (23%) dos colaboradores quer reduzir o tempo das deslocações e aumentar o equilíbrio entre o trabalho e a vida pessoal e familiar ao trabalhar perto de casa, a nível mundial”.
Saiba mais.....
Saiba mais.....
- A Internet fomenta novas formas de cultura.
- A Internet ajuda em grande medida a criar e difundir conteúdos multimédia digitais, promovendo a diversidade linguística e as diferentes culturas que existem no mundo
Também se pode utilizar a Internet para visitar um museu ou ver um vídeo, ouvir programas de rádio produzidos por grandes produtoras, por empresas, organizações ou indivíduos.
Graças à Internet é possível ligar entre si, bibliotecas, escolas e universidades, e fomentar uma nova "alfabetização electrónica".
A Internet é usada pelas famílias por um ou outro motivo: para os adultos a Internet é um meio que lhes permite encontrar informações enquanto que para as crianças e jovens funciona mais como uma fonte de divertimento: ligam-se para um bocado bem passado, para aceder a um sítio específico, para se envolver em actividades diversas relacionadas com jogos on-line, sítios web preferidos (música, desportos, etc.).
As tecnologias de informação estão na ordem do dia. Fazem parte de um conjunto maior de tecnologias que se convencionou designar por novas. Porém, algumas, são já o resultado de processos com várias décadas de existência e apenas sofreram alterações ou foram adoptadas graças, em parte, ao aparecimento de novos meios e avanços quer em materiais e técnicas, quer devido a novas necessidades sentidas.
O certo é que o valor da informação se alterou; a informação passou de um acessório, ingrediente ou factor mais ou menos pacífico de obter para uma palavra chave que as organizações procuram avidamente definir. O custo da informação elevou-se e a sua origem já não é a mesma. Passou de ter predominantemente uma origem localizada em organismos, instituições e/ou qualquer outro tipo de organizações normalmente de caracterizada por possuir uma recolha de dados altamente centralizada e assentar numa estrutura "pesada", para uma novo estrutura muito mais dinâmica e autónoma, baseada nas próprias pessoas.
E porquê? em parte devido a que o tempo de resposta e flexibilidade de filtrar as informações necessárias exige actualmente uma maior adaptação a cada caso particular. A unidade operacional que melhor pode desempenhar este papel é obviamente uma pessoa altamente treinada, capaz de tomar decisões entre o importante e o secundário (aquilo a que o senso comum designa por "separar o trigo do joio"). Esta característica assume actualmente uma grande peso na avaliação das capacidades profissionais de um indivíduo. O valor dos recursos humanos é assim multiplicado em relação ao seu "status" anterior; este possui um papel activo e valorizado perante a organização em que actua.
Em consequência, verifica-se que as tecnologias de informação catapultam as pessoas, que possuírem o Know-how para agir neste ambiente, para um plano de evidência, como elementos privilegiados da sociedade actual.
O "know-how" (entendido como saber fazer) é agora a arma que permite uma boa e independente projecção profissional. Este tipo de informação associada a um indivíduo, é única e indivisível; duas pessoas diferentes não reagem da mesma forma nem assimilam a mesma matriz de experiência seja qual for a semelhança das suas práticas.
Mas como cada indivíduo pode obter know-how na sua área de especialização?.Cada vez mais é necessário considerar a formação de nível teórico (académica, garantindo os conceitos resistentes à mudança) como essencial. Mas esta não basta, também é necessário passar por um conjunto de experiências que coloquem o indivíduo perante um alargado leque de problemas para os quais encontrou soluções diversas, todas com vantagens e inconvenientes, devidamente avaliados.
É necessário preparar pessoas para enfrentar situações novas que requerem soluções inovadoras, igualmente novas. O treino de ultrapassagem de obstáculos colocados em diversas situações, com base em situações anteriores cuja solução ou medida a tomar se conhece é ainda o processo mais usual para a aquisição de "know-how" numa dada área. Esta capacidade a desenvolver assemelha-se a um atalho que poupa a uma organização a intervenção e gasto adicional de recursos, graças à intervenção de um único indivíduo.
É interessante observar que actualmente o know-how numa dada área já não é pertença de nenhum estrato profissional fechado; ele é encontrado (e mesmo procurado) em profissionais que necessitam de resolver problemas específicos para desempenhar as suas tarefas e assim recorrem a meios auxiliares de outras áreas, redefinindo o conceito de profissão de forma drástica.
Com base no exposto, ocorrem as mudanças que a informática (nomeadamente a microinformática) imprimiu às organizações, o que permitiu ao indivíduo reconquistar a sua dimensão individual e o seu espaço próprio. O grupo de trabalho é agora assumido como um conjunto de indivíduos e não apenas como uma unidade de trabalho. Este tem de trabalhar de forma cooperativa, introduzindo novas competências no indivíduo como comunicador e dinamizador do trabalho de grupo.
A consciência do valor do indivíduo na sociedade (designada de informação), que começa a dar os primeiros verdadeiros passos, vai alterar as organizações, as relações de trabalho e reavaliar estruturas básicas como sejam a família, a educação, o desporto, a cultura e mesmo a religião.
Nesta perspectiva, é possível arriscar que as tecnologias de informação ajudaram, como um dos factores activos, a humanizar a sociedade (nesta última década), reforçando a o reconhecimento do valor do indivíduo como gerador de ideias e angariador de soluções. As T.I. não são factor único mas são um dos mais influentes e a sua presença é perfeitamente identificável. Talvez por isso, as tecnologias de informação são cada vez mais utilizadas como ponto de partida para o estudo do comportamento da sociedade actual.
Será pois interessante questionar onde os recentes em serviços como a Internet nos levarão e qual a sua influência no modo de vida do final do século. Pode-se esperar que o reforço da qualidade de vida passa pela humanização das T.I.; para elas próprias atribuírem um novo valor ao seu utilizador: o indivíduo.
O sector dos serviços de Telecomunicações e Informática é um dos de mais rápido crescimento a nível mundial (em alguns países o mercado do rádio móvel – telefones móveis – tem taxas de crescimento superiores a 100%, e os serviços Internet chegam a aumentar mais de 1000%.
A encontrar recursos educativos e notícias actuais, obter documentos, fotos e imagens importantes, e pesquisar temas muito diversos, das condições climáticas às estatísticas de população.
Conseguir ajuda para realizar os trabalhos de casa, quer através das enciclopédias on-line e outras obras de referência, ou contactando especialistas.
Aumentar as capacidades de leitura pelo acesso a conteúdos interessantes, que sugiram outras leituras.
Aprender a utilizar melhor as novas tecnologias para saber encontrar e utilizar a informação desejada, resolver problemas, comunicar, e sem duvida a adquirir competências cada vez mais mais exigidas no mercado de trabalho.



















