Boas vindas

O conteúdo dessa página é fruto de pesquisas de trabalhos publicados em livros, sites, revistas, trabalhos acadêmicos e do próprio conhecimento do autor. Nosso objetivo é concentrar conhecimento sobre T.I, principalmente para não profissionais da área.


Seja bem vindo !

Sistemas de informação na saúde

A história do computador


-->
Pré-história
Pré-história das calculadoras
O primeiro dispositivo de cálculos foi o ábaco, originário da China em 2000 AC.
Régua de cálculo
No início do século XVII, o escocês John Napier inventou um dispositivo chamado Ossos de Napier que são tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada, e que trouxe grande auxílio ao uso de logaritmos, em execução de operações aritméticas como multiplicações e divisões longas.
Hoje, o dispositivo aperfeiçoado é empregado freqüentemente pelos engenheiros, através da régua de cálculo.
Calculadoras
A primeira calculadora somente somava e subtraía e foi inventada por Blaise Pascal na França em 1642, para ajudar o seu pai.
A máquina contém como elemento essencial uma roda dentada construída com 10 "dentes". Cada "dente" corresponde a um algarismo, de 0 a 9.
A primeira roda da direita corresponde às unidades, a imediatamente à sua esquerda corresponde às dezenas, a seguinte às centenas e sucessivamente.
A máquina de Leibniz
Cerca de 30 anos após a construção da máquina de Pascal, Gottfried Wilhem Von Leibniz inventou um dispositivo constituído por um conjunto com dez "dentes", cada um dos quais mais comprido que o anterior, que permitiu efetuar de modo automático a multiplicação e divisão.
Alan Turing
Alan Turing imaginou uma máquina “universal” que pudesse realizar cálculos automaticamente, demonstrando que um conjunto de estruturas simples podia resolver qualquer problema complexo. Esta máquina não chegou a ser montada.
Entretanto ele e a sua equipe desenvolveram o Colossus, um dos primeiros computadores do mundo, visto aqui em operação durante a Segunda Guerra Mundial.
Essa máquina enorme continha 1.500 válvulas, e sempre alguma se queimava em alguns minutos. O Colossus era capaz de processar 5.000 caracteres por segundo, e foi responsável pela decodificação das mensagens alemãs "Enigma".
John Von Neumann
Matemático brilhante, fugiu da Alemanha nazista para os Estados Unidos, professor em Princeton, participou do projeto para a construção da bomba atômica.
Foi convidado para o projeto ENIAC (Electronic Numeric Integrator And Calculator). O trabalho estava sob a orientação de engenheiros eletrônicos mas, como matemático, analisou o problema de modo diferente e redigiu um relatório que estruturou a arquitetura dos modernos computadores.
Ele e sua equipe desenvolveram o EDVAC (Electronic Discrete Variable Computer) onde, foi aplicada a idéia de programação interna que trata do armazenamento de programas, codificados de acordo com certos critérios na memória do computador e não em dispositivos externos, como ocorria até então.
Esse procedimento aumenta a operacionalidade dos programas, pois grupos de instruções podem ser executados várias vezes e na ordem que se fizer necessária.
Sistemas de Numeração Antigos Egípcio
Há 6.000 anos os Egípcios utilizavam um sistema decimal(dez cajados valem um osso, dez ossos valem uma corda etc.) os números eram escritos segundo o Princípio de Justaposição.
Porém não conheciam o Princípio da Posição, razão porque se tornava difícil a representação de números grandes.
Babilônio
Há 5.000 anos atrás eles utilizavam um sistema de base sessenta com símbolos cuneiformes.
Para números maiores que sessenta usa-se (e pela primeira vez na história!) o Princípio da Posição de base sessenta (Princípio Sexagesimal). Exemplos:
Romano
Há 2.100 anos atrás os romanos utilizavam os seguintes numerais:
I : um V: cinco X: dez L: cinqüenta X: cem D: quinhentos M : mil
Regras para escrever:
Somente os numerais I, X, C e M podem ser repetidos no máximo 3 vezes consecutivas.
Se um numeral (ou mais) está à direita de outro de igual ou maior valor, somam-se os seus valores (princípio aditivo da justaposição) e se está (com exceção de V, L, D e M) à esquerda de outro de valor imediatamente superior, subtraem-se (princípio subtrativo da justaposição).
Romano
Para aumentar o valor do número 1.000 vezes, coloca-se um traço horizontal sobre o numeral (com exceção do I); para aumenta-lo um milhão de vezes colocam-se dois traços e assim sucessivamente. Exemplos:
3 = III 9 = IX 21 = XXI 206 = CCVI
1.969 = MCMLXIX
Nos sistemas antigos, não existia o ZERO que foi introduzido pelos hindus há 1500 anos atrás.

Em 1945 Von Neumann sugeriu que o sistema binário fosse adotado em todos os computadores, e que as instruções e dados fossem compilados e armazenados internamente no computador, na seqüência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo. Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.


O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.








Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho). Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética. Os computadores a transistores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados.
A Segunda GeraçãoEra a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio. O primeiro computador totalmente transistorizado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica. O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.




Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer. Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado. Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda.
A Terceira GeraçãoA terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados. O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.







Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa. O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00. Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores. Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala. As coisas começam a acontecer com maior rapidez e freqüência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974. O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET. A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts. Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.
Primeiro chip da Intel o 4004 com 2.300 transistors, no mesmo ano Zuffo da USP fabrica o 1o chip nacional





Computador minúsculo concebido por John Sinclair, professor na Universidade de Cambrige no U.K.. Inicialmente concebido para utilização pelos estudantes da Universidade de Cambrige começou a ser comercializado, em Portugal, circa 1980 com um preço aproximado de 12.500$00. Existia uma versão em kit para montagem que era comprada aproximadamente por 9.000$00 A CPU compreendia um processador Zilog Z80A de 8 bit a 3,25 MHZ, uma memória que compreendia uma ROM e uma RAM e uma ULA. A ROM, com 8K de capacidade, armazenava de modo permanente os programas, tabelas etc. necessários ao funcionamento do sistema e um interpretador para a linguagem de programação BASIC. A RAM compreendia uma área de trabalho disponível para o utilizador de 1K mas, era extensível até 16K. Na caixa de plástico alojava-se ainda um subsistema de comunicações para ligação em série a periféricos denominado SCL (Sinclair Computer Logic), uma unidade para entrada e saída de som, um codificador de imagens para TV. Num rasgo aberto na parte traseira da caixa de plástico existia um conector onde se podia ligar uma impressora minúscula que usava um rolo de papel especial. O computador era fornecido com um cabo para ligação ao televisor e outro para ligação a um gravador de "cassettes" musical (norma Philips). O transformador de corrente eléctrica alterna para contínua era adquirido em separado. Os programas e dados eram gravados na cassette magnética e eram também lidos a partir dela. O teclado não dispunha de teclas. Os caracteres ASCII eram impressos numa membrana. Esta tecnologia e a falta de ventilação da unidade de alimentação eléctrica eram as causas principais de avarias que enviavam o ZX81 para o caixote do lixo. Foi um computador muito popular devido ao seu baixo preço de venda.







Fabricado pela Osborne nos USA circa 1982. A CPU compreendia uma memória com 64KB, uma UAL e um Processador Zilog Z80A de 8 bit a 4 MHZ. A caixa, do tipo mala attaché com uma massa de 11 Kg, albergava ainda 2 unidades de disquette de 5" 1/4 com 204 KB ou em opção com 408 KB de capacidade, um écran de 5" (24 linhas por 54 colunas) a preto e branco e um teclado basculante (servia de tampa à mala) com dois blocos de teclas, um alfanumérico com os caracteres ASCII e outro numérico. Dispunha ainda de conectores para um écran externo, ports série RS-232C e paralelo IEEE-488 ou Centronics. O sistema era alimentado por uma bateria própria recarregável com uma autonomia de 5 horas, por uma bateria externa de automóvel ou por um transformador de corrente eléctrica alterna para contínua. O sistema operativo era o CP/M desenvolvido pela Digital Corporation. O software fornecido incluia um Interpretador M BASIC desenvolvido pela MICROSOFT, um Compilador BASIC desenvolvido pela Compyler Systems, uma folha de cálculo SUPERCALC (derivada do Visicalc) e um processador de texto denominado WORDSTAR. Podia ser programado em BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER e CROSS-ASSEMBLER. Última morada conhecida: desconhecida (foi visto na FILEME-82 em Lisboa).






Fabricado pela IBM nos USA circa 1980, foi apresentado em Portugal em Janeiro de 1985 já com a versão PC-XT disponível, à qual se seguiu uma versão PC-AT. O CPU compreendia uma memória ROM de 40KB e uma memória RAM de 64KB extensível até 640KB, uma ULA e um processador Intel 8088 de 16 bit com uma frequência de clock de 4,77 MHZ. Era construido com três módulos separados: caixa, écran e teclado. O écran era a preto e branco com 25 linhas e 80 colunas podendo ser substituido por um écran a cores com 16 cores. A caixa para além do CPU albergava uma unidade de disquette de 5" 1/4 com uma capacidade de 360KB podendo alojar ainda uma outra unidade de disquette idêntica ou um disco com 10MB de capacidade, que era parte integrada na versão PC-XT. O teclado com 83 teclas, 10 das quais correspondentes a funções pré programadas, dispunha de caracteres acentuados (português). Possuia ainda saída para impressora e o PC-XT dispunha de um interface para comunicações assincronas. O sistema operativo era o PC/MS-DOS o qual era um MS-DOS desenvolvido pela Microsoft para a IBM. A linguagem de programação utilizada era o BASIC. Embora sendo um marco histórico da entrada da IBM no sector de mercado dos PC's, chegou a Portugal tardiamente não ocupando nunca o espaço já conquistado por outros fabricantes. Só cerca de dois anos depois, com a apresentação dos modelos PS/2-50 e PS/2-60, que eram equipados com um processador Intel 80286, a IBM recuperou o sector de mercado dos PC's utilizando para o efeito a penetração nas empresas onde tinha instalado mainframes e "pequenos computadores".
A Quarta GeraçãoSurgiram em decorrência do uso da técnica dos circuitos LSI (LARGE SCALE INTEGRATION) e VLSI (VERY LARGE SCALE INTEGRATION). Nesse período surgiu também o processamento distribuído, o disco ótico e o a grande difusão do microcomputador, que passou a ser utilizado para processamento de texto, cálculos auxiliados, etc. -1982- Surge o 286 Usando memória de 30 pinos e slots ISA de 16 bits, já vinha equipado com memória cache, para auxiliar o processador em suas funções. Utilizava ainda monitores CGA em alguns raros modelos estes monitores eram coloridos mas a grande maioria era verde, laranja ou cinza. -1985- O 386 Ainda usava memória de 30 pinos, porém devido ás sua velocidade de processamento já era possivel rodar softwares graficos mais avançados como era o caso do Windows 3.1, seu antecessor podia rodar apenas a versão 3.0 devido à baixa qualidade dos monitores CGA, o 386 já contava com placas VGA que podiam atingir até 256 cores desde que o monitor também suportasse essa configuração. -1989- O 486 DX A partir deste momento o coprocessador matemático já vinha embutido no próprio processador, houve também uma melhora sensível na velocidade devido o advento da memória de 72 pinos, muito mais rapida que sua antepassada de 30 pinos e das placas PCI de 32 bits duas vezes mais velozes que as placas ISA . Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16 milhões de cores, porém este artificio seria usado comercialmente mais para frente com o advento do Windows 95. Neste momento iniciava uma grande debandada para as pequenas redes como, a Novel e a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que rodavam em sua grande maioria os sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da IBM). Esta substituição era extremamente viável devido à diferença brutal de preço entre estas máquinas.
Foto de um 386 e um 486 e a foto de Uma Mother Board (Placa Mãe) de um 486 DX 100
A Quinta GeraçãoAs aplicações exigem cada vez mais uma maior capacidade de processamento e armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos, gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos dessas necessidades. Uma das principais características dessa geração é a simplificação e miniaturização do computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com os preços cada vez mais acessíveis. A tecnologia VLSI está sendo substituída pela ULSI (ULTRA LARGE SCALE INTEGRATION). O conceito de processamento está partindo para os processadores paralelos, ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos de produção e do volume dos componentes permitiram a aplicação destes computadores nos chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e computadores de pequeno porte. São exemplos desta geração de computadores, os micros que utilizam a linha de processadores Pentium, da INTEL. 1993- Surge o Pentium As grandes mudanças neste periodo ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas de video AGP e de um aprimoramento da slot PCI melhorando ainda mais seu desempenho. 1997- O Pentium II / 1999- O Pentium III / 2001- o Pentium 4 Não houveram grandes novidades após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.
Na ordem o Celeron / Ciryx / AMD K6 / Pentium MMX
O Pentium 2 e o AMD K6-2 os TOP de Linha até 1998 / Foto de uma placa de Pentium II
O Futuro - Vem aí o computador quânticoA IBM anunciou ontem a construção do mais avançado computador quântico do mundo. A novidade representa um grande passo em relação ao atual processo de fabricação de chips com silício que, de acordo com especialistas, deve atingir o máximo de sua limitação física de processamento entre 10 e 20 anos. O computador quântico usa, em lugar dos tradicionais microprocessadores de chips de silício, um dispositivo baseado em propriedades físicas dos átomos, como o sentido de giro deles, para contar números um e zero (qubits), em vez de cargas elétricas como nos computadores atuais. Outra característica é que os átomos também podem se sobrepor, o que permite ao equipamento processar equações muito mais rápido. "Na verdade, os elementos básicos dos computadores quânticos são os átomos e as moléculas", diz Isaac Chuang, pesquisador que liderou a equipe formada por cientistas da IBM, Universidade de Staford e Universidade de Calgary. Cada vez menores Segundo os pesquisadores da IBM, os processadores quânticos começam onde os de silício acabam. "A computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e moléculas", afirma Chuang. A lei de Moore, conceito criado em 65 pelo co-fundador da fabricante de processadores Intel, Gordon Moore, diz que o número de transistores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de transistores nos chips, maior a velocidade de processamento. Essa teoria vem se confirmando desde a sua formulação. Pesquisa O computador quântico da IBM é um instrumento de pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já despertou o interesse do Departamento de Defesa dos Estados Unidos * Dados sobre o Processador Quantico foram extraidos do Jornal o Estado de São Paulo de 12 de agosto de 2000

O futuro da WEB - Entrevista

Nesta entrevista exclusiva por telefone, este londrino de 52 anos, agraciado em 2004 com o título de Sir pela Rainha Elizabeth II, explica como imagina o futuro da maior de todas as redes e decreta: a Web Semântica será muito mais poderosa do que tudo o que conhecemos.

Antes de mais nada, devo chamá-lo de Sir Timothy, Professor Timothy ou Mr. Berners-Lee?
Tim Berners-Lee – Você pode me chamar de Tim.

Bem, Tim, minha primeira pergunta é aquela que sempre lhe perguntam: O que vem a ser a Web Semântica?
Sim, é verdade. Frequentemente me perguntam sobre isso. E o modo mais simples de explicar é: no seu computador você tem seus arquivos, os documentos que você lê, e existem arquivos de dados como agendas, programas de planejamento financeiro, planilhas de cálculo. Estes programas contêm dados que são usados em documentos fora da web. Eles não podem ser colocados na web. Um exemplo: você está procurando uma página na web para encontrar uma palestra que quer assistir ou um evento que quer participar. O evento tem um local e um horário e pessoas associadas a ele. Mas você precisa ler a página da web ao mesmo tempo em que abre a sua agenda para inserir as informações. Se quiser achar novamente aquela página, terá que digitar o seu endereço para ela voltar até ela. Se quiser os detalhes corporativos das pessoas, terá que cortar e colar as informações de uma página na web para dentro da sua agenda, porque o arquivo da sua agenda e os arquivos de dados originais não estão integrados com os dados na web. Assim, a Web Semântica trata da integração desses dados.

Quando você usa um aplicativo, deveria poder inserir seus dados de modo a poder configurá-los, informando o computador: “Eu vou nesta reunião”. Quando dissesse isso, a máquina iria entender os dados. A Web Semântica é sobre a colocação de arquivos de dados na web. Não é apenas uma web de documentos, mas também de dados. A tecnologia de dados da Web Semântica terá muitas aplicações, todas interconectadas. Pela primeira vez haverá um formato comum de dados para todos os aplicativos, permitindo que os bancos de dados e as páginas da web troquem arquivos.

Mas, afinal, qual é a diferença entre uma web de documentos e outra de dados?
Existem muitas diferenças. Pegue, por exemplo, os seus dados financeiros. Existem duas formas de observá-los. Se olhar numa página normal na web, eles parecem com uma folha de papel. A única coisa que se pode fazer é lê-los. Mas se observá-los num site da Web 3.0, você poderá, por exemplo, usar um mecanismo de busca para alterar a ordem dos dados, obtendo desta forma um acesso muito melhor aos mesmos.

Hoje, antes de realizar uma tarefa como pagar seus impostos, você precisa de um programa de gerenciamento financeiro. Ao fazê-lo, os dados não são carregados como uma página na web, mas como arquivos de dados. Esta é a diferença entre documentos e dados. Quando você procura documentos nos seus dados bancários, só é possível lê-los. Quando procura dados, pode descobrir o quanto de impostos está devendo ou qual é o total das contas a pagar. Não podemos fazer isso na web atual.

Se fosse possível, as informações reunidas nos seus dados bancários seriam convertidas num padrão que só funcionaria com bancos. Mas haverá padrões totalmente diferentes, padrões para uso em agendas, por exemplo. Hoje não se pode perguntar ao computador: “Quando foi que eu preenchi este cheque? Qual é o nome da função? Quando eu fui naquela reunião?” Não se podem conectar itens em diferentes arquivos de dados, a não ser que se use a Web Semântica. Ela é muito mais poderosa, porque nela é possível conectar dados sobre pessoas que tenham a ver com um determinado local e um determinado momento.


Mas esta integração completa entre dados pessoais, empresariais e governamentais não pode levar a uma invasão de privacidade?
Sim. Eu também tenho este medo! Um aspecto importante da Web Semântica se chama provenance. Esta palavra é um código que define de onde vêm os dados e o que pode ser feito com eles. Os padrões da Web Semântica permitem que se defina como você deseja manipular os dados aos quais tem direitos de acesso. Estamos desenvolvendo no MIT sistemas para mostrar, sem sombra de dúvidas, quais são os usos permitidos para as informações, de modo que se possa checar de onde elas vêm e o que significam, tendo-se a certeza de que não serão usadas em nenhuma forma não autorizada.

Mas não é preciso ter um mínimo de conhecimento técnico para definir estas preferências, o que não é o caso da maioria da população mundial?
Em primeiro lugar, quando se usa a Web Semântica para dados pessoais, eles não são colocados na internet aberta. Existe dentro do seu computador uma web pessoal para os dados da sua vida, para serem navegados localmente. No caso de softwares de planejamento financeiro, os sistemas dos bancos navegam através da rede no interior de um canal seguro e são executados localmente, no PC. Não se usa tecnologia de web. Seus dados pessoais não estão na internet. O que estamos falando é permitir ao usuário combinar as informações pessoais e empresariais a que tem direitos de acesso com informações públicas de modo a criar um conteúdo muito mais rico.

Sobre o fato das pessoas precisarem de algum conhecimento técnico, isso às vezes é verdade. Mas no caso de uma agenda estamos manipulando dados, certo? Quando você usa uma agenda de endereços você está criando dados. Estes programas possuem interfaces amigáveis que permitem uma utilização sem grandes problemas, a menos que se usem programas incompatíveis. Estas interfaces foram desenhadas para facilitar o seu emprego pelo usuário comum.

Estamos trabalhando para tornar esta tecnologia disponível àqueles que quiserem manipular documentos nas empresas. É verdade que não existe ainda tecnologia de Web Semântica que seja facilmente utilizável por pessoas idosas ou crianças. Mas no MIT temos um grupo de pesquisadores trabalhando exatamente nisso, produzindo programas que permitam ao cidadão comum ler, escrever e processar os seus próprios dados.

Foi você quem formulou o termo Web Semântica? É a mesma coisa que a Web 3.0? Qual é a diferença entre a Web 2.0 e a 3.0?
Sim, fui eu. Foi em 1999, no meu livro "Weaving the Web" (Tecendo a Teia). A Web 2.0 é um nome para descrever como operam os arquivos usados na web. Com relação ao conteúdo gerado pelos usuários, isso ocorre quando as pessoas acessam web sites e classificam (tagging) informações, sobem uma fotografia ou constroem sites comunitários. A Web 2.0, portanto, é baseada em sites comunitários. Mas não fui eu quem inventou este termo. Foi Tim O’Reilly, em 2005.

Sobre a Web 3.0, algumas pessoas usam este termo para definir uma nova arquitetura de dados. Já outras usam como uma forma de regulamentação da tecnologia da web. Mas considere o futuro da tecnologia da web. Um problema típico bem conhecido dos arquivos 2.0 é que seus dados não se encontram num site, mas num banco de dados. Eles não estão na web, não podem ser manipulados. Pegue por exemplo um site profissional com informações sobre os seus colegas de trabalho, um outro site com informações sobre os seus amigos, além de sites de diferentes comunidades. Na Web 2.0 você não pode enxergar o quadro completo; ninguém pode ver o quadro completo. É por isso que algumas pessoas dizem que a Web 3.0 será uma realidade quando os sites exibirem dados que possam ser manipulados.

Vejamos um outro exemplo: se um determinado site encontra informações úteis sobre os meus amigos no meu blog, então eu posso definir um ícone para informar ao meu computador: “extraia estes dados, analise-os e os adicione aos dados que tenho de outros sites, para então exibi-los todos juntos”.

Quando a Web Semântica atingir todo o seu potencial, ela desencadeará um segundo boom da internet?
Bem, sob certo ponto de vista isso já está acontecendo. Mas eu não acho que a web já atingiu todo o seu potencial, e ela já está aí faz quase 16 anos. A Web Semântica irá decolar quando as pessoas começarem a colocar links públicos de dados na web, adicionando dados e arquivos pessoais. Mas acredito que ainda vai levar muitos anos, porque muita coisa terá que ser feita para torná-la uma realidade.

O que é a Neutralidade na Net? Qual é a sua posição com relação a isto?
Trata-se do seguinte: quando você e eu pagamos para nos conectar na internet, podemos nos comunicar não importando quem quer que nós sejamos. O que mais chama atenção hoje na rede são os vídeos. Eles estão tomando conta da net. Uma empresa como o YouTube atrai muita atenção porque transmite vídeo pela web, aproveitando-se do fato de que, em muitas regiões do mundo, a largura de banda está se tornando cada vez maior.
Agora suponha que eu esteja em Massachusetts, seja um fã de cinema independente e queira encontrar um filme brasileiro. Eu entro na internet para procurar no Brasil os meus diretores e filmes independentes prediletos. Mas de repente o provedor de acesso em Massachusetts bloqueia a transmissão dizendo: “Não vamos deixar você fazer isso, porque nós vendemos filmes. Sim, nós fornecemos a você acesso à internet, mas impedimos que assista filmes. Queremos controlar quais filmes você compra.”

Eu já vi empresas de tevê a cabo tentarem impedir o uso de ligações telefônicas na internet. Isso me preocupa. Eu não quero que isso aconteça. Acredito ser muito importante manter a internet aberta para quem quer que seja. É isso que chamamos de Neutralidade na Net. É imprescindível preservá-la para o futuro.

Em 2003, o governo brasileiro ao lado de outras nações propôs uma administração internacional para a internet, espelhada nos exemplos da União Européia e das Nações Unidas. Será que algum dia Washington irá permiti-lo?
Acredito que a internet irá se burocratizar aos poucos. Isso é inevitável. É importante permitir que as pessoas de diversos países, dos países emergentes, desenvolvam o seu uso da internet o mais rápido possível. Mas a administração de algo tão grande nunca poderá ser controlada por uma burocracia única. Não sei que forma essa burocracia assumirá, já que existe muita política envolvida. Mas penso que seria importante manter a rede livre da ação dos governos e sem censurar as pessoas que a utilizam.

Certa vez você disse que criou a web para resolver uma frustração que tinha no CERN – o Conselho Europeu para a Pesquisa Nuclear, em Genebra. Como foi isso?
O CERN possui uma maravilhosa diversidade de culturas, porque gente de todo o mundo vai lá para pesquisar física. Em 1989, antes de existir a web, eu escrevi um memorando explicando como ela seria. Eu mencionava o sistema de hipertextos e a World Wide Web como um método para agregar e editar dados. Eu queria que todas as informações na rede do CERN pudessem ser facilmente acessáveis. Queria desenvolver ferramentas para permitir às pessoas produzir e usar informações de forma colaborativa. A primeira ferramenta foi um editor de web que permitia aos pesquisadores do CERN usar um documento, editá-lo e alterá-lo para então enviá-lo, inserindo links entre as páginas da web e documentos científicos. Minha frustração era que eu queria trabalhar com pessoas de países diferentes, usando máquinas diferentes, operando bancos de dados diferentes e distribuindo dados em formatos diferentes. A web forneceu um padrão para tudo isso.

Muitos pesquisadores ganharam milhões com a web, mas você preferiu continuar desenvolvendo padrões. Não acha que perdeu a chance de uma vida por não criar uma web proprietária?
Não, não acho, porque se ela fosse proprietária as pessoas não teriam usado nem contribuído para o seu crescimento. Ela não teria decolado e nós não estaríamos conversando agora.

Empreendedores como Nova Spivak e o co-fundador da Microsoft, Paul Allen, trabalham com uma linha do tempo que prevê o advento da Web 3.0 em 2010 e até mesmo uma futura Web 4.0 em 2020. Consegue imaginar como seria esta Web 4.0?
(Risos) Não, eu não consigo. Eu estudo tecnologia real. Eu não inventei a palavra Web 3.0 (ela surgiu pela primeira vez num blog em janeiro de 2006). A web está em constante evolução. Na Web 2.0 existem tecnologias, como o JavaScript, que surgiram e se tornaram padrões por auxiliar as pessoas em suas tarefas. A maioria dos padrões que estão surgindo agora dará um grande impulso a iniciativas como a web móvel, que é o uso da web nos mais diversos dispositivos.

No futuro teremos a Web Semântica que permitirá muitas outras coisas. Uma das características mais poderosas das tecnologias de rede como a internet, a web ou a Web Semântica é que as coisas que conseguimos fazer vão muito além da imaginação de seus criadores. Pegue, por exemplo, os inventores do TCP/IP (Transmission Control Protocol-Internet Protocol), os protocolos originais para a comunicação entre computadores na internet, criados por Vinton Cerf e Robert Kahn em 1974. Como eles imaginariam que aqueles protocolos iriam se tornar a maior de todas as redes?

Quando inventei a web, pensava nela como uma infra-estrutura, como uma fundação para muitas outras coisas. A Web 2.0 permitiu o surgimento das redes sociais e muitos outros serviços. Quando a Web Semântica surgir daqui alguns anos, os usuários irão utilizá-la em formas que ainda não podemos prever. Por isso é uma bobagem tentar imaginar como será uma Web 4.0 quando nem sabemos o que será feito na 3.0.

As pessoas que a estudam a Web 3.0 terão que desenvolver idéias para fazer esta nova tecnologia ter sucesso. Eles irão projetar coisas fantásticas, assim como os pesquisadores da Web 2.0 estão desenhando coisas fantásticas neste instante. Quem trabalhar com a Web Semântica irá fazer coisas muito mais poderosas. Não podemos imaginar como elas serão. Mas temos que construir a web para ser uma infra-estrutura. Ela nunca deverá ser usada para propósitos particulares. Somente como uma fundação para futuros desenvolvimentos

Histórico Sistemas Operacionais

 O Sistema Operacional (S.O) de um computador é parte de um sistema computacional formado por hardware + S.O + software aplicativo.
Os S.O estão classificados na categoria de software básico (matéria contida nesse blog - software).
O S.O é o programa(s) responsável pela comunicação entre o usuário, seja ele um profissional de tecnologia da informação (TI) ou não e um computador, seja esse de qualquer tipo ou porte.
A primeira geração de computadores na década de 1950 era operada apenas por usuários com conhecimento específico dos computadores, pois não dispunham de um S.O, eram operados através de chaves, fios e luzes (matéria contida nesse blog – A história do computador).
O conceito e evolução dos S.O começaram a partir de 1955 através do advento do cartão perfurado, permitindo assim que várias instruções ou comandos fossem executados em uma sequência previamente determinada (programação bath), dispensando a operação através de painéis.
A história dos S.O está diretamente ligada a evolução das máquinas (hardware) desde o primeiro computador digital o ENIAC (Eletronic Numerical Integrator and Computer) construido para fins de cálculos matemáticos, seguido do UNIVAC (Universal Automatic Computer) criado para o senso americano de 1950 e outros tantos até os atuais PC´s.

Na verdade, o ENIAC pouco tem em comum com os computadores atuais. Em vez da lógica binária, ele empregava números decimais. Incapaz de armazenar programas na memória, ele exigia que o "programador" conectasse um grande número de cabos para definir os códigos a ser executados. Além disso, ele não suportava instruções de desvio condicional, uma das bases da programação atual. Ainda assim, era a máquina analítica mais poderosa da sua época. Permaneceu em atividade por nove anos, realizando cálculos para fins militares. Na década de 1960 os sistemas operacionais eram desenvolvidos para cada equipamento, de maneira que cada fabricante possuía seu próprio S.O para cada modelo que fabricava.
Em 1969 um grupo de profissionais da AT&T com o objetivo de solucionar o problema de incompatibilidade e portabilidade de aplicações entre diferentes computadores criaram o UNIX que certamente norteou todos os S.O que o sucederam inclusive os atuais S.O de nossos PC´s.
O UNIX foi escrito inicialmente em ASSEMBLER (linguagem de máquina) e em 1973 reescrito em linguagem C.
Esse S.O introduziu conceitos revolucionários em sua época como por exemplo os conceitos de multiusuário e multitarefa.
Foi talvez o precursor do “software livre”, pois foi distribuído gratuitamente incluindo seu código fonte (tratado na matéria SOFTWARE).


 

Os sistemas operacionais para microcomputadores baseados em disquetes, chamados abreviadamente DOS (Disk Operating System) foram a mola-mestra do rápido desenvolvimento e disseminação de sistemas de uso pessoal avançado e uso profissional. No início da revolução dos microcomputadores, entre 1974 a 1977, surgiram inúmeras máquinas diferentes, cada qual com seu sistema operacional. Somente com o surgimento de um sistema operacional simples, mas adotado em um grande número de máquinas, o CP/M (Control Program for Microcomputers), é que as tendências em matéria de DOS começaram a se firmar. O termo DOS, entretanto, passou a ser associado a computadores específicos de grande vendagem, como o Apple, o TRS 80 e o IBM PC, que impuseram, pela força do mercado, padrões aceitos mais ou menos universalmente, mas com inúmeras incompatibilidades mútuas.



A partir de 1976, com o lançamento do primeiro microcomputador, o Apple I, Steve Jobs revolucionou o mercado com um S.O feito para uso de pessoas comuns, com interface gráfica (GUI ), porem ainda muito aquém das GUI que conhecemos hoje.
Em 1984 a APPLE lançou o microcomputador Machintosh com um S.O denominado MAC O.S que dispunha de ícones para representar pastas e arquivos.


Em paralelo ao trabalho de Steve Jobs na Apple, foi fundada a Microsoft em 1975, por Bill Gates e Paul Allen. O seu primeiro produto foi uma versão de Basic para um computador Altair da IBM. Em 1980 a IBM planeja lançar seu computador pessoal com o sistema CP/M, mas as tratativas com a Digital Research falham e a IBM procura a Microsoft para desenvolver seu sistema operacional. Sem ter um sistema para entregar, a Microsoft acerta um contrato não exclusivo de licenciamento com a IBM e procura a Seattle Computers para comprar seu sistema Q-DOS ($50.000,00), que sofreu poucas modificações e passou a se chamar MS-DOS (Microsoft Disk Operating System). Foram lançados quatro versões do MS-Dos. A primeira em 1980; a segunda em 1983, a terceira em 1984 e a quarta versão em 1988. A Microsoft chegou ainda a pensar em lançar o DOS protegido como DOS 5, mas decidiram mudar o nome para OS/2. Ao mesmo tempo haviam criado o Windows 1.0 como um ambiente gráfico e de programação para rodar sobre DOS “inspirado” no trabalho de Steve Jobs da Apple. Diferenças técnicas de opinião e o ponto de vista da IBM de que o Microsoft Windows era uma ameaça ao OS/2, provocaram um racha entre as duas companhias, e a Microsoft percebeu que não precisava mais da IBM, pois o MS-Dos já tinha um domínio enorme no mercado, o que levou à dissolução da associação.
Em 1987, a Microsoft lançou então a versão 2.0 do Windows. Três anos depois lançou o Windows 3.0, que rodava aplicações DOS em modo virtual, portanto melhor que o OS/2 1.3. A IBM ainda lançou o OS/2 2.0, inclusive com uma interface melhorada, a WorkPlace Shell (WPS). A WPS era muito diferente do que as pessoas esperavam, a configuração inicial era muito pobre e feia. Em contraposição o Windows modo virtual tinha muitos acionadores, uma interface familiar, por isso superou o OS/2 2.0.
A partir daí, as versões posteriores do Windows (Windows 3.1- maio de 1992, Windows 3.11 - março de 1993, Windows NT 3.1 - julho de 1993, Windows 95 - 24 de agosto de 1995, Windows NT 4.0 - agosto de 1996,Windows 98 e NT 5.0 - maio de 1998, Windows 2000 - agosto de 2000), sendo de destacar o lançamento do Windows95, confirmaram a supremacia da Microsoft no campo dos sistemas operacionals, para computadores pessoais. A IBM ainda fez uma última tentativa de fazer do OS/2 o principal sistema operacional lançando o OS/2 Warp 3.0. no final de 1994. Este sistema vendeu milhões de cópias, mas não superou o sucesso do Windows.




Redes locais





O que é uma rede local ?

Rede local, chamado também rede local empresa (RLE) (ou em inglês LAN, local area network), é uma rede que permite interconetar os computadores de uma empresa ou uma organização. Graças à este conceito, datando de 1970, os empregados de uma empresa têm à disposição um sistema que permite :
• De trocar informações
• De comunicar
• De ter acesso à serviços diversos
Uma rede local ligar geralmente computadores (ou recursos como impressoras) à ajuda de apoio de transmissão telegráficos (pares entrançados ou cabos coaxiais a maior parte do tempo) sobre uma circunferência de uma centena de metros. Além, considera-se que a rede faz parte de uma outra categoria de rede chamada MAN (metropolitan area network), pela qual os apoios de transmissão são adaptados mais às grandes distâncias…
Os constituintes materiais de uma rede local
Uma rede local é constituída de computadores ligar por um conjunto de elementos materiais e "software". Os elementos materiais que permitem interconetar os computadores são os seguintes :
• A placa rede (às vezes chamado acoplador): trata-se de um placa conetado sobre o placa-mãe do computador e permitindo de converter-o ao apoio físico, é, - dizer às linhas físicas que permitem transmitir a informação
• O transceiver (chamado também adapteur): permite assegurar a transformação dos sinais que circulam sobre o apoio físico, em sinais lógicos manipulables pelo placa rede, igualmente à emissão que à recepção
• A tomada : trata-se do elemento que permite realizar a junção mecânica entre o placa rede e o apoio físico
• O apoio físico de interconexão : é o apoio (geralmente telegráfico, quer dizer sob a forma de cabo) que permite ligar os computadores entre eles. Principais os apoios físicos utilizados nas redes locais são os seguintes :
o O cabo coaxial
o O par entrançado
o A fibra óptica
Topologias das redes locais
Os dispositivos materiais postos em obra não são suficientes à utilização da rede local. Com efeito, é necessário definir um método de acesso standard entre os computadores, para que estes conheçam a maneira da qual os computadores trocam as informações, nomeadamente se mais de dois computadores compartilham-se o apoio físico. Este método de acesso é chamado topologia lógica. A topologia lógica é realizada por um protocolo de acesso. Aos protocolos de acesso mais utilizados são:
• Ethernet
• Token ring
A maneira da qual os computadores são interconetados fisicamente é chamada topologia física. As topologias físicas básicas são:
• A topologia em anel
• A topologia em bus
• A topologia em estrela
Introdução Ethernet
Ethernet (também conhecido sob o nome de norma IEEE 802.3) é um padrão de transmissão de dados para rede local baseada no princípio seguinte:
Todas as máquinas da rede Ethernet
é conetado à uma mesma linha de comunicação,
constituído de cabos cilíndricos
Distingue-se diferentes alternativas de tecnologias Ethernet seguinte o tipo e o diâmetro dos cabos utilizados:
• 10Base2: O cabo utilizado é um cabo coaxial fino de fraco diâmetro, chamado thin Ethernet,
• 10Base5: O cabo utilizado é um cabo coaxial de gordo diâmetro, chamado thick Ethernet,
• 10Base-T: O cabo utilizado é um par entrançado (o T significa twisted pair), o débito atingido é de cerca de 10 Mbps,
• 100Base-FX: Permite de obter um débito de 100Mbps utilizando uma fibra óptica multimode (F significa Fiber).
• 100Base-TX: Como 10Base-T mas com um débito 10 vezes mais importante (100Mbps),
• 1000Base-T: Utilize um duplo par entrançado de categoria 5.o e permite um débito Gigabit por segundo.
• 1000Base-SX: Baseado numa fibra óptica multimode que utiliza um sinal de fraco comprimento de onda (S significa short) de 850 nanomètrs (770 à 860 nm).
• 1000Base-LX: Baseado numa fibra óptica multimode que utiliza um sinal de comprimento de onda elevado (L significa long) de 1350 nm (1270 à 1355 nm).
Ethernet é uma tecnologia de rede muito utilizada porque o preço custar de tal rede não é muito elevado
Princípio de transmissão
Todos os computadores de uma rede Ethernet ligar à uma mesma linha de transmissão, e a comunicação faz-se à ajuda de um protocolo chamado CSMA/CD (Carrier Sense Multiple Access with Collision Detect que significa que trata-se de um protocolo de acesso múltiplo com vigilância de portador Carrier Sense e deteção de colisão).
Com este protocolo qualquer máquina é autorizada de emitir sobre a linha à qualquer momento e sem noção de prioridade entre as máquinas. Esta comunicação faz-se de maneira simples :
• Cada máquina verifica que não há nenhuma comunicação sobre a linha antes de emitir
• Se duas máquinas emitirem simultaneamente, então há colisão (ou seja que várias tramas de dados encontram-se sobre a linha ao mesmo momento)
• As duas máquinas interrompem a sua comunicação e esperam um prazo aleatório, seguidamente a estreia que tem passado este prazo pode então réémettre
Este princípio é baseado em vários constrangimentos:
• Os pacotes de dados devem ter uma dimensão máxima
• haver um tempo de espera entre duas transmissões

O tempo de espera varia de acordo com a frequência colisões:
• Após a primeira colisão uma máquina espera uma unidade de tempos
• Após a segunda colisão a máquina espera duas unidades de tempos
• Após a terceira colisão a máquina espera quatro unidades de tempos
• … com naturalmente um pequeno tempo suplementar aleatório
Ethernet comutado
Até lá, a topologia Ethernet descrita era a Ethernet compartilhado (qualquer mensagem emitida é entendida pelo conjunto das máquinas conetadas, pela banda concorrida disponível é compartilhada pelo conjunto das máquinas).
Desde cerca de anos uma evolução importante produziu-se: a Ethernet comutado.
A topologia física permanece uma estrela, organizada em redor de um comutador (switch). O comutador utiliza um mecanismo de filtragem e de comutação muito similar à o utilizadas pelas pontes estreitas (gateways) onde estas técnicas são utilizadas desde extremamente muito tempo.
Inspeciona os endereços de fonte e de destino das mensagens, elabora uma mesa que lhe permite então saber qual máquina é conetada sobre qual porto do switch (em geral este processo faz-se por autoaprendizagem, ou seja automaticamente, mas o gestor do switch pode proceder à ajustamentos complementares).
Conhecendo o porto do destinatário, o comutador transmitirá a mensagem apenas sobre o porto adequado, os outros portos restantes portanto livres para outras transmissões que podem produzir-se simultaneamente.
Resulta que cada troca pode efetuar-se à débito nominal (a mais divisão da banda concorrida), sem colisões, com para consequência um aumento muito sensível da banda concorrida da rede (à velocidade nominal igual).
Quanto a saber se todos os portos de um comutador puderem dialogar ao mesmo tempo sem perda de mensagens, aquilo depende da qualidade deste último (non blocking switch).
Dado que a comutação permite evitar as colisões e que as técnicas 10/100/1000 baseie T (X) disponham de circuitos separados para a transmissão e a recepção (um par entrançado por sentido de transmissão), a maior parte dos comutadores modernos permite desativar a deteção de colisão e passar em modo full-duplex sobre os portos. Da espécie, as máquinas podem emitir e receber ao mesmo tempo (que contribui de novo para o desempenho da rede).
O modo full-duplex é particularmente interessante para os servidores que devem servir vários clientes.
Os comutadores Ethernet modernos detetam igualmente a velocidade de transmissão utilizada por cada máquina (autosensing) e se este último suportar várias velocidades (10 ou 100 ou 1000 megabits/seca) iniciar com ela uma negociação para escolher uma velocidade bem como o modo semi-duplex ou full-duplex da transmissão. Aquilo permite ter um parque de máquinas que têm desempenhos diferentes (por exemplo um parque de computadores com diversas configurações materiais).
Como o tráfego emitido e recebido mais não é transmitido sobre todos os portos, muito mais difícil de espionner (sniffer) que se passa.
Voilà qui contribue à la sécurité générale du réseau, ce qui est un thème fort sensible aujourd'hui.
Para terminar, o uso de comutadores permite construir redes mais vastas geograficamente. Ethernet compartilhado, uma mensagem deve poder atingir qualquer outra máquina na rede num intervalo de tempos preciso (slot time) sem qual o mecanismo de deteção das colisões (CSMA/CD) não funciona correctamente.
Isto não é mais de aplicação com os comutadores Ethernet. A distância mais é limitada apenas pelos limites técnicos do apoio utilizado (fibra óptica ou par entrançado, potência do sinal emitido e sensibilidade do receptor,…).
Princípio do anel à ficha
O anel à ficha (em inglês token ring) é uma tecnologia de acesso à rede baseada no princípio da comunicação alternadamente, ou seja que cada computador da rede à possibilidade de falar por sua vez. É uma ficha (um pacote de dados), circulando em anel de um computador à outro, que determina qual computador tem o direito de emitir informações.
Quando um computador está possessão da ficha ele pode emitir durante um tempo determinado, após o qual entrega a ficha ao computador seguinte.


Realmente os computadores de uma rede de tipo “anel à ficha” não são dispostos em anel, mas ligar um distribuidor (chamado MAU, Multistation Access Unit) que vai dar sucessivamente “a palavra” à cada um deles.


Última modificação do dia Quarta 7 de Janeiro de 2009 às 14:34:20.Este documento, intitulado « Anéis à ficha »a partir de Kioskea (pt.kioskea.net) está disponibilizado sob a licença Creative Commons. Você pode copiar, modificar cópias desta página, nas condições estipuladas pela licença, como esta nota aparece claramente.

Que significa o termo “topologia”
Uma rede informática é constituída de computadores ligar entre eles graças a linhas de comunicação (cabos redes, etc.) e elementos materiais (placas rede, bem como de outros equipamentos que permitem assegurar a boa circulação dos dados). O arranjo físico, quer dizer a configuração espacial da rede é chamada topologia física. Distingue-se geralmente as topologias seguintes:
• topologia em bus
• topologia em estrela
• topologia em anel
• topologia em árvore
• topologia maillée
A topologia lógica, em oposição topologia à física, representa a forma como os dados transitam nas linhas de comunicação. Às topologias lógicas mais correntes são Ethernet, Token Ring e FDDI.
Topologia em bus
Uma topologia em bus é organização mais simples de uma rede. Com efeito, numa topologia em bus todos os computadores ligar à uma mesma linha de transmissão através de cabo, geralmente coaxial. A palavra “bus” designa a linha física que ligar as máquinas da rede.

Esta topologia tem para vantagem de ser fácil a pôr em obra e possuir um funcionamento simples. Em contrapartida, é extremamente vulnerável já que se uma das conexões for defeituosa, o conjunto da rede é afetado.
Topologia em estrela
Numa topologia em estrela, os computadores da rede ligar a um sistema material central chamado concentrateur (em inglês hub, literalmente médio de roda). Trata-se de uma caixa que compreende diversas junções às quais é possível conetar os cabos rede provenientes dos computadores. Este tem para papel assegurar a comunicação entre as diferentes junções.

Contrariamente às redes construídas sobre uma topologia em bus, as redes de acordo com uma topologia em estrela são muito menos vulneráveis porque uma das conexões pode ser desligada sem paralyser o resto da rede. O ponto nevrálgico deesta rede é o concentrador, porque sem mais nenhuma comunicação entre os computadores da rede não lhe é possível.
Em contrapartida, uma rede à topologia em estrela é mais cara que uma rede à topologia em bus porque material suplementar é um necessário (o hub).
Topologia em anel
Numa rede que possui uma topologia em anel, os computadores são situados sobre um anel e comunicados cada um à sua volta.
>
Realmente, numa topologia anel, os computadores não ligar em anel, mas ligar um distribuidor (chamado MAU, Multistation Acess Unit ) que vai gerir a comunicação entre os computadores que lhe ligar fixando à cada um deles um tempo de palavra.

As duas principais topologias lógicas que utilizam esta topologia física são Token ring(anel à ficha) e FDDI.

Última modificação do dia Quarta 7 de Janeiro de 2009 às 14:34:23.Este documento, intitulado « Topologia das redes »a partir de Kioskea (pt.kioskea.net) está disponibilizado sob a licença Creative Commons. Você pode copiar, modificar cópias desta página, nas condições estipuladas pela licença, como esta nota aparece claramente.

A Internet

A História da Internet

A Internet nasceu praticamente sem querer. Foi desenvolvida nos tempos remotos da Guerra Fria com o nome de ArphaNet para manter a comunicação das bases militares dos Estados Unidos, mesmo que o Pentágono fosse riscado do mapa por um ataque nuclear.
Quando a ameaça da Guerra Fria passou, ArphaNet tornou-se tão inútil que os militares já não a consideravam tão importante para mantê-la sob a sua guarda. Foi assim permitido o acesso aos cientistas que, mais tarde, cederam a rede para as universidades as quais, sucessivamente, passaram-na para as universidades de outros países, permitindo que pesquisadores domésticos a acessarem, até que mais de 5 milhões de pessoas já estavam conectadas com a rede e, para cada nascimento, mais 4 se conectavam com a imensa teia da comunicação mundial.
Nos dias de hoje, não é mais um luxo ou simples questão de opção uma pessoa utilizar e dominar o manuseio e serviços disponíveis na Internet, pois é considerada o maior sistema de comunicação desenvolvido pelo homem.
Com o surgimento da World Wide Web, esse meio foi enriquecido. O conteúdo da rede ficou mais atraente com a possibilidade de incorporar imagens e sons. Um novo sistema de localização de arquivos criou um ambiente em que cada informação tem um endereço único e pode ser encontrada por qualquer usuário da rede.
Em síntese, a Internet é um conjunto de redes de computadores interligadas que tem em comum um conjunto de protocolos e serviços, de uma forma que os usuários conectados possam usufruir de serviços de informação e comunicação de alcance mundial.

Histórico
Desenvolvida pela empresa ARPA (Advanced Research and Projects Agency) em 1969, com o objetivo de conectar os departamentos de pesquisa, esta rede foi batizada com o nome de ARPANET.
Antes da ARPANET, já existia outra rede que ligava estes departamentos de pesquisa e as bases militares, mas como os EUA estavam em plena guerra fria, e toda a comunicação desta rede passava por um computador central que se encontrava no Pentágono, sua comunicação era extremamente vulnerável.
Se a antiga URSS resolvesse cortar a comunicação da defesa americana, bastava lançar uma bomba no Pentágono, e esta comunicação entrava em colapso, tornando os Estados Unidos extremamente vulnerável a mais ataques.
A ARPANET foi desenvolvida exatamente para evitar isto. Com um Back Bone que passava por baixo da terra (o que o tornava mais difícil de ser interrompido), ela ligava os militares e pesquisadores sem ter um centro definido ou mesmo uma rota única para as informações, tornando-se quase indestrutível.
Nos anos 1970, as universidades e outras instituições que faziam trabalhos relativos à defesa tiveram permissão para se conectar à ARPANET. Em 1975, existiam aproximadamente 100 sites. Os pesquisadores que mantinham a ARPANET estudaram como o crescimento alterou o modo como as pessoas usavam a rede. Anteriormente, os pesquisadores haviam presumido que manter a velocidade da ARPANET alta o suficiente seria o maior problema, mas na realidade a maior dificuldade se tornou a manutenção da comunicação entre os computadores (ou interoperação).
No final dos anos 1970, a ARPANET tinha crescido tanto que o seu protocolo de comutação de pacotes original, chamado de Network Control Protocol (NCP), tornou-se inadequado. Em um sistema de comutação de pacotes, os dados a serem comunicados são divididos em pequenas partes. Essas partes são identificadas de forma a mostrar de onde vieram e para onde devem ir, assim como os cartões-postais no sistema postal. Assim também como os cartões-postais, os pacotes possuem um tamanho máximo, e não são necessariamente confiáveis.
Os pacotes são enviados de um computador para outro até alcançarem o seu destino. Se algum deles for perdido, ele poderá ser reenviado pelo emissor original. Para eliminar retransmissões desnecessárias, o destinatário confirma o recebimento dos pacotes.
Depois de algumas pesquisas, a ARPANET mudou do NCP para um novo protocolo chamado TCP/IP (Transfer Control Protocol/Internet Protocol) desenvolvido em UNIX. A maior vantagem do TCP/IP era que ele permitia (o que parecia ser na época) o crescimento praticamente ilimitado da rede, além de ser fácil de implementar em uma variedade de plataformas diferentes de hardware de computador.
Nesse momento, a Internet é composta de aproximadamente 50.000 redes internacionais, sendo que mais ou menos a metade delas nos Estados Unidos. A partir de julho de 1995, havia mais de 6 milhões de computadores permanentemente conectados à Internet, além de muitos sistemas portáteis e de desktop que ficavam online por apenas alguns momentos. (informações obtidas no Network Wizard Internet Domain Survey, http://www.nw.com).

Histórico da Internet no Brasil
A história da Internet no Brasil começou bem mais tarde, só em 1991 com a RNP (Rede Nacional de Pesquisa), uma operação acadêmica subordinada ao MCT (Ministério de Ciência e Tecnologia).
Até hoje a RNP é o "backbone" principal e envolve instituições e centros de pesquisa (FAPESP, FAPEPJ, FAPEMIG, etc.), universidades, laboratórios, etc.
Em 1994, no dia 20 de dezembro é que a EMBRATEL lança o serviço experimental a fim de conhecer melhor a Internet.
Somente em 1995 é que foi possível, pela iniciativa do Ministério das Telecomunicações e Ministério da Ciência e Tecnologia, a abertura ao setor privado da Internet para exploração comercial da população brasileira.
A RNP fica responsável pela infra-estrutura básica de interconexão e informação em nível nacional, tendo controle do backbone (Coluna dorsal de uma rede, backbone representa a via principal de informações transferidas por uma rede, neste caso, a Internet).

O surgimento de um Mercado Comercial
No meio dos anos 80, havia um interesse suficiente em relação ao uso da Internet no setor de pesquisas, educacional e das comunidades de defesa, que justificava o estabelecimento de negócios para a fabricação de equipamentos especificamente para a implementação da Internet. Empresas tais como a Cisco Systems, a Proteon e, posteriormente, a Wellfleet (atualmente Bay Networks) e a 3Com, começaram a se interessar pela fabricação e venda de roteadores, o equivalente comercial dos gateways criados pela BNN nos primórdios da ARPANET. Só a Cisco já tornou-se um negócio de 1 bilhão de dólares.
A Internet está tendo um crescimento exponencial no número de redes, número de hosts e volume de tráfego.
Outro fator primordial que existe por trás do recente crescimento da Internet é a disponibilidade de novos serviços de diretório, indexação e pesquisa que ajudam os usuários a descobrir as informações de que precisam na imensa Internet. A maioria desses serviços surgiu em função dos esforços de pesquisa das universidades e evoluíram para serviços comerciais, entre os quais se incluem o WAIS (Wide Area Information Service), o Archie (criado no Canadá), o YAHOO, de Stanford, o The McKinley Group e o INFOSEEK, que são empresas privadas localizadas no Vale do Silício.

O novo Jeito de Vender
Este é um tema moderno e ao mesmo tempo tradicional envolvendo televendas e teleatendimento. A principal questão está centralizada na nova filosofia de percepção de compra eletrônica, na definição de um internauta e sua percepção de realização da compra através de um novo canal de comunicação, a Internet.
Para compreender a filosofia do comércio eletrônico é necessário entender o mecanismo de televendas e teleatendimento como sendo a primeira tentativa de venda "virtual" que surgiu no início da década de 80 e procura incorporar os seguintes conceitos:
1. Desmaterialização: substituição do movimento e contato físico por informação telefônica ou via catálogos e um contato virtual.
2. Desintermediação: eliminação de um ou mais intermediários na cadeia de venda do produto.
3. Grupo de afinidades: são produtos e serviços que possuem similaridades (em termo de divulgação e consumo) e que oferecem ao consumidor soluções apenas visuais, cujas características são inquestionáveis em termo de qualidade, preços e garantias.
Algumas empresas implementam o conceito e a infra-estrutura necessária para operar um centro de atendimento ao cliente, os chamados call-centers. Surgiram os sistemas de informação, os banco de dados, sistemas de telefonia com unidade de respostas audíveis, profissionais de teleatendimento e a interação entre comandos , dados e voz, que representa o ponto máximo de evolução do atendimento virtual.
Os recursos de telefonia integrados com sistemas de banco de dados aliados a uma filosofia de televendas proporcionam o início do comércio eletrônico que "acoplou" os recursos de Internet, home page, browser, servidor Web e provedor de acesso.
Este "mundo" virtual, com filosofias de consumo próprias ainda não claramente estabelecidas e compreendidas, envolve basicamente a facilidade de manipulação de um browser interrelacionando às necessidades do cliente e a oferta de produtos e serviços até a efetivação da compra segundo:
• Learn: Como os clientes aprendem e adquirem informações gerais e institucionais sobre a empresa? São necessariamente informações correntes e consistentes, com foco e direcionamento nas necessidades dos usuários do browser.
• Shop: Como os clientes consultam e escolhem as ofertas de produtos e serviços? São informações baseadas nas preferências do consumidor e na seqüência de ações no browser, auxiliando o consumidor a tomar decisões.
• Buy: Como os clientes efetivam as transações de compras? Trata-se da facilidade do consumidor de preencher um pedido de compra onde não existe a necessidade de um contato do tipo face a face. Essas transações são suportadas por múltiplas formas de pagamento, devendo ser ágil e livre de erros no processamento do pedido de compras.
• Support: Como os clientes poderão ter um suporte técnico e um serviço de atendimento no pós-vendas? Neste caso, considera-se o atendimento 24 horas por 7 dias de vital importância, e também, toda a comunicação interativa (do tipo pergunta/resposta escrita), além de contar com uma organização de processos e profissionais que identificam um problema e encaminhamento da solução com agilidade.

Pontos Importantes do e-commerce
1) Merchandising – Qualquer varejista sabe que um produto bem apresentado sai mais rápido da prateleira. Na Web isso significa boas imagens, preços claros e informações completas dos produtos expostos. Também não se pode ignorar a localização dos produtos. Clientes entram nas lojas atraídos pelos produtos expostos na vitrine. Na Web, esses produtos ficam na primeira página.
2) Promoção - Os tradicionais anúncios em jornais, revistas ou televisão são substituídos por banners animados, e-mails ou promoções hot sell. Sempre anuncie produtos com apelo forte de venda. Então, é necessário preparar um plano de marketing e separar a verba para executá-lo.
3) Atendimento a Clientes - O processo de venda, virtual ou não, envolve várias etapas. Em cada uma delas há interação entre o consumidor e um funcionário da loja. Sendo assim é necessário estabelecer um canal de comunicação preciso, transparente e ágil. Caso contrário, os consumidores desaparecerão rapidamente.
4) Vendas - Para ter sucesso nas vendas, é necessária uma equipe de vendedores bem treinada e motivada. Na Web, isso pode ser feito com muito mais consistência e menos custo. Os produtos e serviços oferecidos devem apresentar informações detalhadas, bem como seus principais diferenciais em relação aos concorrentes, análises de jornalistas ou consumidores sobre sua qualidade e outras informações que possam ajudar o cliente a decidir a compra mais rapidamente.
5) Pagamento - Como a cultura de usar cartão de crédito pela Internet ainda é pouco disseminada no Brasil, é necessário oferecer formas de pagamento alternativas, como carteiras eletrônicas, depósitos identificados e cheque eletrônico pré-datado.
6) Pós-venda- Todo pós-venda deve estar disponível para consulta na Web, incluindo normas para troca ou devolução de produtos, dados cadastrais da rede de assistência técnica, perguntas e respostas mais freqüentes e informativos periódicos por e-mail sobre novidades, lançamentos, etc.
7) Segurança - O ponto mais importante do comércio eletrônico. Qualquer pessoa tem medo de comprar algo com o cartão de crédito pela Web. Por isso, não poupar recursos de segurança para tirar essa preocupação de seus clientes, é um fator importante. Isso inclui a adoção do SSL e processos de encriptação de informações nas bases de dados e comunicar claramente os clientes sobre a segurança oferecida no site.
8) Estoque - Para ganhar eficiência nas vendas, é importante separar fisicamente o estoque dos produtos vendidos pela Web. Mesmo assim, o tratamento gerencial deve ser igual ao de um estoque normal, com informações precisas de giro, custo e tempo de reposição.
9) Logística – É necessário preparar-se para entregar produtos individualmente e com rapidez. E não esquecendo dos custos de transporte. Se forem muito altos, a empresa não terá clientes também.
10) Monitoramento - Manter sistemas de acompanhamento precisos e informatizados. Se a operação não for muito bem controlada, os custos com retrabalho de informações irão comer qualquer margem deixada pela venda dos produtos.

Kellen Cristina Bogo - Graduada em Ciência da Computação e Colaboradora a Almeida & Cappeloza Consultores Associados





Cookies

Se traduzirmos à letra significa ''bolachas''. Os cookies são pequenos ficheiros criados pelo Internet Explorer (ou Netscape Communicator) a pedido do web site que se está a visitar. Um cookie contém normalmente um número de série. Quando se visita de novo o web site que gerou o cookie, o servidor do web site repara que já existe um cookie e assim percebe que o utilizador já visitou o site. O servidor não pode saber quem é o utilizador nem pode obter qualquer tipo de informações pessoais.

Domínio

Também chamado sub-domínio, é o nome dado ao computador no qual está alojado o servidor das suas páginas. Este domínio pode ser real, se o computador apenas tiver um nome, ou pode ser virtual, se o computador for conhecido por diversos nomes, i.e., se nele residirem vários domínios. Em linguagem corrente, Domínio é utilizado muitas vezes como o nome que identifica uma entidade (organização, marca, produto) na Internet. O domínio é composto por um nome e por um sufixo (ex.ufp.pt).

Endereço IP

Um endereço IP é uma sequência de algarismos (exemplo: 192.168.0.1) que representa o endereço de um computador que está ligado à Internet. A cada computador ligado à Internet corresponde um endereço IP. Os endereços sob a forma www.nome.pt são utilizados para não ser necessário decorar números. Ao endereço www.nome.com corresponde um endereço IP.
FTP (File Transfer Protocol)
FTP significa "File Transfer Protocol". Através deste protocolo é possível efetuar a transferência de ficheiros pela Internet de uma maneira fiável. Atualmente existem programas que utilizam exclusivamente este protocolo, para que se possam efetuar transferências de ficheiros de uma forma prática. A função mais comum do FTP é o "download" de ficheiros, embora muitos programas já executem esta função, se bem que utilizem, normalmente, um protocolo mais lento e menos fiável do que o FTP. Com este tipo de programas também é permitido enviar ficheiros (upload) para áreas de FTP. O upload é mais utilizado para colocar páginas on-line.

Hiper-ligação

Esta é a tradução literal de ''Hiperlink''. As palavras ou imagens de uma página web nas quais é possível clicar chamam-se links, hiperlinks ou hiper-ligações.
Homepage

Este termo quer normalmente dizer ''página principal de um web site''. A Homepage de um web site é a sua página principal. A home page de um utilizador pode ser a sua página pessoal, mas pode também ser a página que carrega quando se abre o browser (Internet Explorer ou Netscape Navigator).

HTML (Hyper Text Markup Language)

À linguagem utilizada para produzir páginas web dá-se o nome de HTML, ou seja, produzir um ficheiro html é sensivelmente a mesma coisa que produzir uma página web.

HTTP (HyperText Transfer Protocol)

O ''protocolo'' utilizado para navegar na web é o http, isto é, ao escrever ''http://www.nome.pt/index.html'' estamos a dizer ao browser para transferir o ficheiro
Largura de Banda/Faixa

Velocidade máxima que uma determinada ligação permite. Por exemplo: ao ligar o computador ao fornecedor de acesso internet com um modem de 33.6 kbps estabelece-se uma ligação cuja largura de banda é 33.6 kbps. Ao transferir um ficheiro a velocidade

POP (Point of Presence)

Em Português: Ponto de Presença. Um POP é, normalmente, um servidor de um fornecedor de acesso internet instalado numa determinada localidade para permitir a ligação por chamada local. Se um fornecedor de acesso Internet tem um POP em Coimbra isso quer dizer que os utilizadores de Coimbra se podem ligar ao fornecedor de acesso por chamada local.

Proxy

Um servidor proxy está encarregue de ''navegar'' nas páginas em nome do utilizador e guardar essas página no seu disco, ou seja, se o Internet Explorer do utilizador estiver configurado para navegar com o ''proxy'' do fornecedor de acesso, as páginas visitadas pelo utilizador ficam guardadas no proxy. Quando um outro utilizador pretende visitar a página que já foi visitada pelo primeiro utilizador, o acesso à página é mais rápido porque já estava guardada no proxy do fornecedor de acesso.
Router

Computador ou Software que interliga duas ou mais redes. Os Routers passam todo o seu tempo à procura dos endereços de destino dos pacotes que por ele passam, encaminhando-os para outros endereços de destino, de acordo com o protocolo utilizado. Para que uma rede de computadores, por exemplo de um escritório, se ligue à Internet é necessário instalar um router (o aparelho) ou um programa que desempenhe o papel de router (instalado no servidor da rede).
Servidor (Server / Host)

Computador central, que administra e fornece informação a outros computadores-clientes. Existem servidores Web que disponibilizam páginas online, servidores de mail que distribuem mensagens, etc.

TCP/IP (Transmission Control Protocol/Internet Protocol)
É o protocolo de comunicação básico da Internet, para interligar redes cujos componentes usam sistemas operativos distintos. Podemos dizer que o TCP/IP é o conjunto de regras técnicas que os computadores utilizam para enviar e receber informações na Internet e nas Intranets.
URL (Universal Resource Locator)

O endereço de uma página web que se escreve na barra de endereços do browser (Internet Explorer por exemplo) é um URL. Aos endereços de ftp completos (ftp://nomedoservidor.com/ficheiro.zip) também se dá o nome de URL. Um URL é composto pelo nome do protocolo (por exemplo 'http://') o nome do servidor (www.servidor.pt) e nome do ficheiro (/index.html). Quando o url não tem o nome do ficheiro (exemplo: http://www.servidor.pt/) o servidor assume que se está a pedir o ficheiro 'index.html'.

World Wide Web (WWW)

World Wide Web, ou apenas Web, é o termo utilizado quando nos referimos à imensidão de páginas existentes em toda a Internet; Página web é o termo utilizado para nos referirmos a uma determinada página; E web site, também conhecido por "sítio" ou "sítio web" é o conjunto de páginas web num determinado endereço.