terça-feira, 15 de abril de 2008

SSD: O fim dos HDs se aproxima

Não é de hoje que se discute o quanto HDs são “primitivos”, afinal, tratam-se das últimas peças mecânicas residentes em nossos computadores. Como sabemos, equipamentos mecânicos sofrem desgaste e, com discos rígidos, não poderia ser diferente. Quem nunca ouviu falar em perda de dados causada por uma unidade defeituosa? Pois é, esse é um dos riscos assumidos ao confiar valiosas informações a uma peça que ainda utiliza um dos conceitos mais antigos da informática, a gravação de dados por meio magnético.

Como tudo na informática evolui, podemos afirmar categoricamente que os famosos HDs estão com seus dias contados. A explicação para esse fato é simples: Unidades de armazenamento SSD, que nada mais são do que dispositivos que não utilizam partes móveis, mecânicas ou processo de leitura/escrita magnética.

O que é e como funcionam as unidades SSD

O termo SSD nada mais é do que a sigla em inglês para “Solid-state Storage Device” (Dispositivo de armazenamento sólido). As novas unidades substituem os tão comuns discos internos por chips de memória, a muito utilizados, mas nunca voltadas ao armazenamento permanente de grande volume.

O conceito das unidades é simples, circuitos integrados semicondutores montados sobre uma placa lógica. O registro das informações é feito por pulsos diretamente nos chips de memória. O armazenamento SSD pode utilizar como base memórias RAM, nesse caso torna-se obrigatória a utilização de uma bateria interna para conservar os dados quando a unidade não estiver ligada, ou ainda memórias flash, onde são utilizadas memórias não voláteis, bastante conhecidas pelo seu uso em unidades de armazenamento móvel, como pen drives.

Realidade ou ficção

Ao contrário do que se possa imaginar, unidades SSD já existem e são comercializadas como alternativa ao onipresente HD, apesar de ainda restritas. É questão de tempo para que ocorra uma popularização, já que o maior empecilho ainda é o preço dessas unidades.

Para amenizar o fator preço, existem unidades “híbridas”, que utilizam até 4Gb de memória interna, destinada a operações críticas onde a velocidade de leitura e escrita é fundamental. Os demais registros ficam por conta do disco rígido.

E no que essas unidades serão superiores ao sistema magnético?

As vantagens dessa nova maneira de armazenamento podem ser resumidas a duas:

A primeira e principal, é o fim do uso de partes mecânicas, que resulta na eliminação da vibração, desgaste, ruído e enormes ganhos na confiabilidade da unidade.

E a segunda e não menos importante, a velocidade. Chips de memória são acessados de forma muito mais rápida do que um disco rígido.

Fica a certeza que esse tipo de armazenamento veio para ficar. Os ganhos ao se utilizar esse tipo de unidade podem ser espantosos, imaginem um sistema operacional carregando poucos segundos após ligar o PC, acesso a disco e transferência de enormes volumes de dados praticamente instantâneos?

Não deve demorar muito para que as controladoras e suas taxas de transferência teóricas virem um gargalo.

Leitura recomendada:
Entenda melhor as unidades SSD (Em inglês)
http://en.wikipedia.org/wiki/Solid-state_drive

segunda-feira, 7 de janeiro de 2008

Pausa no BLOG!

Aos leitores do BLOG,

Comunico que atualmente não tive tempo livre para dedicar a internet ou ao blog, por esse motivo ele segue parado até que eu tenha como escrever um bom artigo e postar aqui.

Acredito que é muito mais válido um bom conteúdo do que simplesmente postar algo para "tapar buraco". Estou dedicando este tempo para resolver problemas pessoais e pendências, mas assim que possível retornarei com tudo!

Aguardem!
Esteban Maroto

segunda-feira, 10 de setembro de 2007

Consoles next-gen: Seriam eles realmente superiores aos PCs?

Não sou especialista em consoles, nem mesmo tenho um desde os tempos do Super NES, mas já tive a oportunidade de jogar o XBOX 360 e o Playstation 3. O que posso dizer sobre ambos é que não me impressionaram.

Do início

A Microsoft discretamente introduziu o XBOX360 em novembro de 2005, aproveitando o fato de que teria o único console next gen do mercado para criar uma vantagem estratégica. Quase um ano se passou até que a Sony tivesse a plataforma concorrente pronta para a "batalha" e, ao anunciar o console ao mundo afirmou ter o melhor conjunto gráfico, capaz de resistir no mercado por no mínimo 10 anos. Aos poucos tivemos resultados reais do que era conhecido apenas por números e a prática novamente se mostrou muito diferente da teoria: Os consoles next-gen não demonstraram a flexibilidade esperada.

Nunca tivemos consoles tão parecidos com PCs, falo de processadores multi-core e placas gráficas das famigeradas nVidia e ATI. Talvez esse seja o maior motivo para que pouco mais de 2 anos após o lançamento do primeiro console next-gen tenhamos PCs superando-os em poder gráfico, grande parte graças a nova API 3D da microsoft, conhecida como DirectX 10.

Falando em Hardware, temos no console da Microsoft uma placa gráfica ATI Xenos, baseada na série Radeon X19XX, enquanto o console da Sony conta com uma nVidia RSX, baseada na série GeForce 78xx. E o que elas tem em comum? Ambas são placas DX9 com alguns incrementos, em outras palavras, isso significa que os consoles atuais já se mostram ultrapassados, incapazes de manter a mesma qualidade gráfica e efeitos de um PC top de linha atual, equipado com uma aceleradora 3D de ultima geração. Com o recente lançamento dos CPUs Quad-Core para PCs, é questão de tempo ou um simples upgrade para que os consoles tenham sido completamente superados.

Sempre foi complicado comparar PCs com consoles devido as diferentes propostas que ambos assumem, mas atualmente está dificil para as grandes fabricantes manterem em seus consoles a melhor escolha para quem quer poder gráfico, pois o tempo necessário para que a plataforma se torne obsoleta é muito curto. Um upgrade de Hardware talvez fosse uma saída, mas certamente causaria problemas enormes quando aqueles que já tem uma versão anterior do console acabassem incapacitados de jogar ou tivessem gráficos inferiores a versão mais atual.

Levando em conta que essa disputa "PC x Console" pendeu para o lado do primeiro, seria interessante que os fabricantes fossem prudentes ao anunciar uma plataforma por "10 longos anos", pois o resultado dessa afirmação pode ser a decepção completado dos compradores.

Nessa batalha pelo melhor console, quem parece ter levado a melhor foi a Nintendo com seu Wii, que apesar de não ser pareo para o Hardware evidentemente superior dos rivais next-gen, vem conquistando a cada dia novos fãs com seu conceito de jogabilidade, atraindo até mesmo pessoas que nunca imaginaram fazer parte do entretenimento virtual.

Leitura recomendada:
Comparação gráfica entre XBOX360 e Playstation 3
http://www.gamespot.com/features/6162742/index.html?tag=gumballs;title;1

quarta-feira, 29 de agosto de 2007

Novas placas DX10 da ATI

Segundo informações não confirmadas obtidas através do X-bit Labs, a ATI/AMD estaria planejando um “contra-ataque” á nVidia e sua linha DX10, com o lançamento de novas placas gráficas baseadas na atual linha DX10 ATI.

As soluções apresentadas seriam a Radeon HD 2900 PRO e HD 2900 GT, ambas versões “reduzidas” da Top de linha HD 2900 XT, provavelmente contando com barremento de memória reduzido para 256bits, clocks menores, e algumas unidades de shader a menos.

A segunda seria uma placa baseada na Radeon HD 2600 XT, apresentando uma solução dual-GPU, que seria uma concorrente superior a GeForce 8600GTS na mesma faixa de preço.

Essa estratégia só pode ter como objetivo tapar o “buraco” deixado no mercado de placas de vídeo onde a nVidia simplesmente não enfrenta concorrência, como a GeForce 8800GTS.

A ATI/AMD aproveitou ainda a oportunidade para anunciar as Fire GL V7600, que são as famosas placas voltadas a profissionais que atuam em áreas como desenvolvimento gráfico em demanda.

Como comentário pessoal, diria que essa é uma excelente notícia para os gamers, pois deixaria a disputa entre as placas DX10 muito mais acirrada, essa sempre é a chave para os aguardados corte de preços.

Leitura recomendada:

Matéria original do X-bit Labs (em inglês):
http://www.xbitlabs.com/news/video/display/20070823084844.html

segunda-feira, 27 de agosto de 2007

ISDTV: A TV digital brasileira

Anunciada á algum tempo, a TV digital brasileira começou a ganhar forma apenas recentemente, com a definição dos padrões e codecs que serão utilizados. Em um primeiro momento, a única coisa que se sabia é que o padrão adotado pelo Brasil seria o ISDB-T, padrão japonês. O que não se sabia é que o modelo adotado já apresentava sinais de desgaste e defasagem tecnológica. Desde então o projeto brasileiro de TV digital passou por algumas “revisões” até chegar na base atual, que será o modelo adotado para as transmissões nacionais, com data inicial prevista para dezembro de 2007, na grande São Paulo e posteriormente para o Brasil.

Originalmente, o modelo de TV digital japonês utiliza o padrão de compactação MPEG-2 para vídeo e o AC-3 da Dolby para áudio (ambos velhos conhecidos, usados comumente em DVDs). Com a chegada dos novos discos Blu-Ray e HD-DVD, chegaram também novos codecs de vídeo, que permitem uma maior taxa de compressão com menor perda de qualidade, estamos falando do H.264. De maneira inteligente, o Brasil aproveitou esse período de adaptação do padrão e realizou a mudança dos codecs, passando do MPEG-2 para o H.264 em video e do AC-3 para o AAC em áudio.

Quer dizer então que o padrão digital brasileiro só tem benefícios quando comparado ao padrão japonês originalmente adquirido?
Infelizmente, não. Usar H.264 e AAC para áudio acaba encarecendo o processo de fabricação dos Set-Top-Boxes, (nome dado aos aparelhos receptores de TV digital), o que pode dificultar substancialmente a popularização do novo sistema, pelo menos em um momento inicial. Por outro lado, o Brasil definiu um software para interatividade (Middleware) denominado “SAMBA”, que seria o “intermediário” entre a transmissão e a recepção, permitindo a interatividade do conteúdo distribuído sem maiores implementações no Set-Top-Box, na teoria reduzindo custos de produção nos modelos mais simples.

Ainda estão faltando pontos importantes a respeito de como será a transmissão digital no brasil, exemplo disso é que pouco se sabe como será a resolução das emissoras, já que não é necessária uma transmissão “Full HD” (1080p) para que a programação seja considerada HDTV. Outro fator importante é o acesso do brasileiro a TVs de alta definição como as telas de plasma e LCD, que ainda estão fora da realidade de muitos. A ausência de uma HDTV torna “sem sentido” uma transmissão em alta definição.

Quanto a essas questões, o que se pode fazer é esperar. Em se tratando do Brasil é aconselhável até rezar para que a TV digital se torne uma realidade e não apenas mais uma das decepções tão comuns na vida do brasileiro.

Leitura Recomendada:
http://www.universiabrasil.net/materia/materia.jsp?materia=11527

Gostou do artigo? Comente, sugira ou opine!

quarta-feira, 22 de agosto de 2007

Novo AMD K10: Que venham os Quad-Core!

A AMD anunciou recentemente o lançamento dos novos CPUs K10, que deverão ser lançados em setembro próximo. As expectativas da fabricante são de que o novo CPU, que conta com uma arquitetura reformulada, seja um rival a altura dos Core 2 Quad (O CPU quatro-núcleos da Intel).

A novidade trouxe ainda o lançamento do já anunciado socket AM2+, que nada mais é do que o socket AM2 com implementação do novo HyperTransport 3.0 e o mesmo suporte a memórias DDR2.

Os primeiros CPUs dessa nova geração devem ser os chips destinados a servidores baseados no Opteron. Na mesma ocasião, foram revelados algumas características e os nomes dos primeiros CPUs que deverão integrar a nova linha Desktop baseados no socket AM2+, são eles:

- Phenom FX (Agena FX), constituído de 4 núcleos, clock inicial de 2.2Ghz e 2Mb de cache L3
- Phenom X4 (Agena), constituído de 4 núcleos, clock inicial de 2.2Ghz e 2Mb de cache L3

Já para 2008, a AMD promete implementar mais processadores baseados no novo socket, que seriam nada mais que uma "Segunda Linha", voltada a processadores de baixo custo, os CPUs em questão são:

- Phenom X2 (Kuma), constituído de 2 núcleos, clock inicial de 2.2Ghz e 2Mb de cache L3
- Athlon X2 (Rana), constituído de 2 núcleos, clocks iniciando em 2.2Ghz e sem cache L3
- Sempron (Spica), constituído de 1 núcleo, clock inicial de 2.2Ghz e sem cache L3.

A grande novidade da nova arquitetura além dos quatro-núcleos foi a inclusão do cache L3, algo no mínimo interessante e que merece um pouco de atenção quanto ao real benefício no desempenho do processador, devido a forma como foi implementado.

Como já era esperado, a AMD assegurou a total compatibilidade nos novos processadores com o já estabelecido socket AM2, devido a implementação do Hyper transport 2.0 em conjunto com o 3.0. Isso significa que você poderá comprar um CPU AM2+ Quatro-Núcleos e utilizar em sua placa mãe AM2 sem qualquer inconveniente. Além disso, os CPUs AM2+ terão total compatibilidade com o futuro socket AM3 que será concebido para utilização de memórias DDR3, já que os novos processadores contam com dois controladores de memória no chip.
Parece que dessa vez a AMD acertou, uma nova mudança de socket deixaria a empresa em maus lençóis ao defrontar os consumidores com 3 mudanças de socket em pouco mais de 2 anos.

Fico no aguardo, espero que esse novo processador possibilite uma disputa a altura no mercado Quad-Core, quem ganharia com isso seriam os consumidores, podendo optar pela plataforma que melhor lhe agradar em custo e desempenho.

Que se inicie a disputa!

Leitura Recomendada:
Entenda a arquitetura dos novos processadores AMD (em Inglês)
http://www.xbitlabs.com/articles/cpu/display/amd-k10.html

segunda-feira, 20 de agosto de 2007

Fontes genéricas: A realidade por trás da aparência

A alguns bons anos freqüento fóruns de informática e sempre vejo as mesmas dúvidas se repetindo de tempos em tempos. São duvidas muitas vezes comuns, que ocorrem no dia-a-dia ao se usar um PC, um produto de uma área de tecnologia onde tudo vive em constante atualização.

Dentre essas muitas dúvidas, surgem velhas questões como “Qual processador comprar?”, “Qual a quantidade de memória indicada nessa configuração?”, “Que placa de vídeo devo comprar?” e muitas outras, mas um fator em especial sempre me preocupa por ser uma questão vital muitas vezes não levada a sério: A fonte de energia.

A uns 10 anos atrás até concordaria em dizer que a fonte de energia era um fator secundário no sistema. Estávamos nós, usando nossos Pentium MMX/K6 MMX com clocks máximos entre 233 e 266mhz, acompanhados de placas de vídeo 2D capazes de gerar resoluções “espantosas” próximas a 800x600 com todos os seus 2mb de memória. Bons tempos aqueles... A grande questão em torno disso é que os PCs consumiam até então no máximo 100W, potência essa que qualquer fonte AT era capaz de fornecer com certa sobra.

As coisas mudaram bastante desde então. A febre pelo poder de processamento e gráficos 3D complexos tornaram os PCs atuais maquinas sedentas por potência. Posso citar como exemplo os recém concebidos CPUs Quad-Core da Intel e AMD que podem chegar a quadruplicar o consumo de energia quando comparados a um CPU single core. Combinados com placas gráficas como a GeForce 8800GTX da nVidia e a HD2900XT da ATI então nem se fala! Mas qual o impacto disso tudo na fonte? Após alguns cálculos, chagamos fácil a quantidades exorbitantes de 500w de consumo, facilmente ampliados com a possibilidade de usar duas placas gráficas, no chamado SLI da nVidia e Crossfire da ATI.

Essa verdadeira salada de números é simplesmente ignorada pela enorme maioria, provavelmente por desconhecimento, falta de interesse ou talvez pela dificuldade de se entender onde tantos termos entram em ação e começam a fazer diferença em uma fonte.

E o que isso significa, onde está o problema no consumo elevado? A resposta é simples: Fontes genéricas.

Fontes assim chamadas, são aquelas produzidas por empresas que tem como único objetivo lucrar com mercadorias baratas e de procedência duvidosa. Quem nunca viu um teclado ou mouse de marcas famigeradas como clone, leadership, mtek, satellite e tantas outras? Infelizmente, os fabricantes tiram proveito do pouco conhecimento dos usuários e da incapacidade de se avaliar se o produto vendido condiz ou não com as especificações e lotam prateleiras com produtos de péssima qualidade.

Quando falamos de fonte de energia, não podemos contar com o “meio termo”. Ou um produto dessa área tem qualidade ou não. Uma fonte de energia de procedência conta com um projeto de primeira e o bom fabricante deve levar em consideração cuidados básicos na produção, entram ai questões relativas a segurança, como proteção contra curto-circuito, carga e temperatura. Todo o projeto deve contar com componentes de qualidade, que vão desde os dissipadores de calor até o material usado no revestimento dos fios. A fonte deve fornecer ainda estabilidade e amperagem adequada a potência em todas as linhas, principalmente nas linhas 12V. Uma fonte de qualidade respeita o projeto e especificações fornecidas e quando faz isso, respeita também o consumidor e seus direitos. Em compensação do outro lado, o fabricante genérico muitas vezes nem sabe o que vende, pois simplesmente compra o item pronto e revende, colocando apenas sua etiqueta por cima, sem qualquer preocupação ou controle de qualidade.

Fica evidente que muitos desses fabricantes usam de má fé para obter lucro, como exemplo cito uma tendência que surgiu a pouco tempo entre as fontes genéricas: Produto “bonitinho” mas ordinário. O mercado foi invadido por fontes de péssima qualidade com aparência e preço de produtos bons. Um bom exemplo disso são os modelos da Leadership na linha “gamer”, que tem aparência de uma boa fonte e a cara-de-pau do fabricante de rotular o produto como tendo “900w” quando na verdade não fornece nem ¼ disso. Outros produtos do tipo são as fontes “MTEK Big Fan” e “Satellite Dual Fan”, essa ultima afirmando ter 30 Amperes nas linhas 12V. Para se ter uma idéia do absurdo, raramente se encontra tal Amperagem mesmo em fontes de qualidade com potência acima dos 500w.

Quem compra uma fonte genérica talvez não saiba, mas está colocando em risco todo o seu sistema. Uma simples sobrecarga em uma fonte não preparada pode significar o fim de todos os componentes da máquina. Não se esqueçam, tudo no PC é alimentado pela fonte!

Os riscos de usar uma fonte que pode simplesmente arruinar o seu PC ou ainda pior vale a pena pela economia feita na compra? Existe mesmo sentido em não dar importância para uma fonte de marca e potência real, levando em conta que é possível adquirir um produto de procedência por preços muito próximos ás chamadas genéricas?

Não é nem necessário pensar muito para se chegar a resposta a respeito disso.

Leitura recomendada:

Diferenças entre duas fontes de 700w, uma genérica e uma de boa marca
Teste Leadership 700W: http://www.clubedohardware.com.br/artigos/1322
Teste OCZ 700W: http://www.clubedohardware.com.br/artigos/1302/1

Pessoal, estou inaugurando este blog hoje, então ainda deve demorar um pouco até que esteja 100%. De qualquer maneira, vai aqui um “artigo” sobre as fontes genéricas, espero que gostem e que sirva para abrir os olhos na hora de comprar uma fonte.