Como o assunto da vez é a nova versão do Ubuntu, a 7.10, codinome Gutsy Gibbon, vamos a mais posts. Este, particularmente, é para acalmar os ânimos de quem porventura venha nos acusar de fazer apologia ao Ubuntu (fazemos mesmo, descaradamente!). Também existem falhas! É o que alguns dizem…

Neste link, tem uma matéria, cujo autor cita outro site, este sueco, apontando supostas falhas no Gutsy. Como não entendo patavinas de sueco, mas alguma coisa de inglês, vou referenciar não o original, mas aquele que o citou. Quem quiser se aventurar pra ler o escandinavo, fique à vontade. 🙂

Grosseiramente traduzido, o texto aponta como falhas, na opinião do autor, as seguintes:

1. O Java nativamente instalado não funcionou;

2. O gerenciador de arquivos não mostra miniaturas;

3. A mesa digitalizadora não funciona se não for configurada manualmente no xorg.conf;

4. As ferramentas de configuração das placas de vídeo têm que ser instaladas manualmente;

5. Usando dois monitores, o Compiz é acionado automaticamente (o que talvez o usuário não queira);

6. O pacote compizconfig-settings-manager tem que ser instalado manualmente;

7. Não dá pra usar o Menu simplesmente apertando hot-keys (como a primeira letra do link), somente pelas setas;

8. O suporte aos DVD players não podem ser instalados pelos repositórios regulares;

9. Os conjuntos de fontes são diferentes (Gnome, OpenOffice, VirtualBox);

Na minha opinião: FRESCURA PURA! Só problemas minúsculos, facilmente resolvíveis por um usuário básico, me arrisco a dizer. Já começa pelo número de problemas, que são 9 e não 10. Há tantas outras coisas que se deveria dar atenção, como por exemplo, algum tipo de mobilização em função de cobrar a AMD/Ati um melhor suporte aos drivers, e outras coisas do tipo. Não acho que seja um post justificável. É chorar de barriga cheia. Funciona tão melhor que outros sistemas operacionais (sabemos bem do que eu falo), essas coisinhas são irrisórias.

Se o post é injustificável, porque, vocês se perguntam, eu o coloquei aqui. Eu respondo: foi a única coisa diferente que encontrei nos 20 minutos que tive pra me dedicar ao blog. E como me comprometi comigo mesmo que tentaria postar algo diariamente, foi o que deu pra arranjar.

Na próxima, eu prometo que arrumo coisa melhor. Senão, façamos graça novamente (post anterior).

Have Fun, If You Can! 🙂

Publicado por: karvalhovsky | outubro 25, 2007

Momento de descontração – Parte 2

Na falta de algo útil ou construtivo pra compartilhar, façamos graça!

piadinha-de-micreiro.jpg

Have Fun! 🙂

Publicado por: karvalhovsky | outubro 23, 2007

Unicamp usa PlayStation 3 para realizar pesquisas

Projeto de biologia tem 12 videogames que fazem cálculos científicos. Console da Sony tem melhor custo/benefício que servidores comuns, diz especialista.

Matéria de RENATO BUENO, pela G1.

O que poderia ser uma LAN house dos sonhos, com o console mais caro da história dos videogames, é, na verdade, um laboratório que faz bilhões de cálculos por segundo para entender melhor a “interação de anestésicos locais com membranas biológicas”.

São 12 PlayStation 3 ligados em rede em uma sala da Unicamp (Universidade Estadual de Campinas), interior de São Paulo. Com seus joysticks (controles) guardados no armário, rodam o sistema operacional Linux, formando um ‘cluster’ de processamento e ajudando a pesquisadora argentina Monica Pickholz nos cálculos de bioinformática desde junho de 2007.

“São muito mais estáveis que qualquer cluster [aglomerado de PCs] com que já trabalhei”, diz Monica. Os videogames funcionam 24 horas por dia, sete dias por semana. Só pararam uma vez, quando “acabou a força e o gerador não funcionou”. Durante todo o tempo, os videogames fazem cálculos para simular dinâmicas de comportamento entre átomos.

(…)

A professora Monica, doutora em Física, faz as contas. Com o projeto de pesquisa financiado pela Fapesp (Fundação de Amparo à Pesquisa no Estado de São Paulo), comprou cada máquina no Brasil por cerca de R$ 2,58 mil – modelo com disco rígido de 60 GB. Conseguiu um total de 72 processadores, já que, efetivamente, são seis os centros de processamento ativos em cada PS3. O mesmo dinheiro, se aplicado em servidores convencionais, resultaria em apenas 32 processadores, ela diz.

(…)

O link para o texto na íntegra está aqui.

Novamente posto aqui uma matéria sobre soluções alternativas para processamento de alto desempenho. Esse assunto provavelmente ainda será bastante recorrente em meus posts, visto que é o que atualmente ando “respirando” em meu trabalho.

A primeira vez que li esta matéria, quem me enviou foi Stenio. Depois ainda recebi de umas duas ou três pessoas, relacionados ao programa onde estudo. Comentei com meu orientador, que assim como a professora Monica da matéria, também é doutor, só que em Arquitetura de Computadores. E para a minha grata surpresa, ele virou e disse: “Pô, legal! Eu já tinha encomendado dois pro laboratório, pra gente poder fuçar também…”.

Êta vida véa besta… Have Fun! I Will! 🙂

Publicado por: Bruno Boaventura | outubro 23, 2007

Aproveitando o poder do Nautilus

Quem usa o GNOME, conhece o seu gerenciador de arquivos, o Nautilus. Quem não usa, não sabe o que está perdendo.  Mas esse post não é para fazer “jabá” para o GNOME. Quero falar sobre uma das funcionalidades do Nautilus que poucos conhecem: o nautilus-actions.

O nautilus-actions é uma extensão (e olha que existem inúmeras) do Nautilus que oferece ao usuário o poder de executar qualquer comando nos arquivos selecionados através de alguns cliques. O Linux.com publicou um ótimo tutorial sobre como aproveitar essa extensão para aumentar a produtividade no tratamento de arquivos.

Publicado por: stenio | outubro 23, 2007

Inclusão Sócio-digital e Software Livre na Bahia

A partir de agora, tentarei escrever um pouco mais aqui sobre notícias relacionadas as Software Livre em nossa região.

Começarei falando de um projeto muito interessante no qual estou envolvido.

É um projeto de inclusão sócio-digital da Secretaria de Ciência e Tecnlogia da Informação do Estado da Bahia chamado de Cidadania Digital.

Uma das ações do projeto é a criação dos CDCs (Centros Digitais de Cidadania). E é aí que está a relação do projeto com o Software Livre. As soluções utilizadas nos Centros são totalmente livres. A infra-estrutura completa de um CDC pode ser conferida no Portal Cidadania Digital. O sistema operacional utilizado nos CDCs é o Berimbau Linux, uma distribuição desenvolvida pela SECTI (Secretaria de Ciência e Tecnologia da Informação) a partir do Debian. Cada CDC é equipado com um servidor (rodando o Berimbau Linux) e 10 terminais leves funcionando com LTSP.

tela_login.jpg desktop_default.jpg

Além do sistema operacional utilizado nos CDCs, todas as soluções desenvolvidas pela SECTI são livres, a exemplo do Acessa Berimbau, do EDUC Berimbau e do EAD Berimbau. Na página de desenvolvimento do projeto, podem ser encontradas outras informações sobre esses sistemas.

Todo a filosofia do projeto está intimamente ligada com as idéias do Software Livre: colaboração, participação, democratização, cooperação, etc.

Vale a pena conhecer um pouco mais do projeto.

Em Vitória da Conquista, existem 3 CDCs: um da UESB, outro do SAC e o terceiro do 9° Batalhão da Polícia Militar.

Publicado por: karvalhovsky | outubro 23, 2007

Estudante monta supercomputador com 2500 dólares

Segundo o site ClusterMonkey.net, quem seguir o exemplo do estudante Tim Brom, estudante da Universidade de Kentucky, nos Estados Unidos,poderá ter agora o seu próprio supercomputador caseiro. O rapaz projetou e montou, com a ajuda do seu professor Joel Adams, um supercomputador com o dobro do desempenho do Deep Blue, equipamento da IBM, que venceu num jogo de Xadrez em 1997, o campeão mundial Gary Kasparov.

Com apenas US$ 2.570,00, professor e aluno, construíram o Microwulf que, certamente, é o menor e mais barato supercomputador já construído no mundo. O Deep Blue custou, sem considerar a inflação, mais de cinco milhões de dólares.

O Microwulf, completamente montado com peças encontradas em lojas comuns de informática, é composto por quatro placas-mãe com processadores dual-core, interligadas por um switch gigabit de oito portas, dispostas em três “andares”, o que o torna bastante compacto e praticamente portátil.

O professor Adams diz que o MicroWulf pode alcançar até 26,25 gigaflops, o que o tornaria o primeiro supercomputador a custar menos de US$ 100,00 por gigaflop.

O Microwulf é considerado do tipo cluster Beowulf, computadores interligados, trabalhando como se fossem uma só máquina, para resolver um problema e usando um software livre. No caso do Microwulf é usado o Linux.

Os que desejarem reproduzir o feito do aluno, vão encontrar as informações necessárias no site Calvin College. Outras fotos podem ser vistas clicando aqui.

Esta matéria foi original divulgada neste link.

Algumas informações adicionais: o experimento foi realizado no mês de janeiro deste ano (2007). Sete meses depois, em agosto, o mesmo experimento já poderia ser construído pelo preço de US$ 1256,00, ou seja, metade do valor original, alcançando assim a fantástica marca de US$48 por gigaflop.

Flop (floating-point operation) é uma unidade que dimensiona uma “operação com pontos flutuantes”, ou seja, uma operação matemática que utiliza como termos números reais. Um gigaflop equivale a um bilhão de operações com pontos flutuantes (kilo = mil, mega = milhão, giga = bilhão). Numa exemplificação de desempenho, um processador de desktop convencional Intel Pentium 4 de 3GHz alcança em torno de 6 Gflops.

Existem muitos projetos e experimentos neste campo hoje em dia. Tornou-se muito mais conveniente, simples e barato utilizar soluções desenvolvidas sobre clusters para aplicações que exigem alto desempenho, do que investir em mainframes multiprocessados. Mas este é assunto pra outro momento.

O que é mais interessante nesta matéria: o sistema operacional do equipamento é Linux (quase que a totalidade de clusters acadêmicos/corporativos usa este sistema), a idéia foi pra lá de criativa (gastou-se pouco e agora tem-se em mãos uma excelente máquina) e as possibilidades apontadas por este experimento são bastante promissoras. O meu interesse particular vem do fato de este ser atualmente o meu campo de estudo – computação de alto desempenho.

Quem quiser se aventurar, Have Fun! 🙂

Publicado por: karvalhovsky | outubro 22, 2007

Brasil entra para o clube dos dez em tecnologia

Conhecida como a rainha da web em Wall Street, a analista Mary Meecker, do banco Morgan Stanley, é talvez a única das grandes analistas financeiras que conseguiu sobreviver ao estouro da bolha da web no começo do século 21.

Tanto sobrevive que todos os anos Meecker é uma das convidadas mais aguardadas do encontro anual sobre a web 2.0 que acontece até sexta-feira (19/10) em São Francisco, na Califórnia.

Porque é ela quem traz mais informação. Nesta quinta-feira pela manhã (18/10) Meecker deslizou por 48 slides em 15 minutos de múltiplos dados e novidades.

Anunciou que o Brasil – junto com a China, a Índia e a Rússia – ganha terreno na área de tecnologia, mídia e telecomunicações (TMT).

Em 2004 o País não aparecia entre os dez primeiros da lista de peso relativo em TMT da Morgan Stanley. No ano passado surgiu em oitavo lugar.

A matéria na íntegra você encontra aqui.

Publicado por: karvalhovsky | outubro 21, 2007

Microsoft cria versão minimalista do Windows

Conhecido como MinWin, o sistema tem apenas 25 MB, contra 4 GB do Windows Vista.

A expectativa é que o MinWin seja usado como base para o Windows 7, o sucessor do Vista, previsto inicialmente para 2010. O MinWin é parte de um esforço que a Microsoft vem fazendo na tentativa de chegar a um sistema operacional de manutenção mais fácil. Com mais de 5 mil arquivos, o Windows Vista ocupa 4 GB no disco. Além de o sistema operacional ser pesado para o micro, sua manutenção é cara e complexa, o que também aumenta as chances de ocorrência de falhas. Parte das reclamações de usuários sobre a lentidão do Vista vêm daí.

O MinWin foi apresentado recentemente por Eric Taut, engenheiro sênior da Microsoft, numa palestra na universidade de Illinois, nos Estados Unidos. Há um vídeo da apresentação disponível no site da universidade. Nele, depois de falar bastante sobre virtualização, o tema principal da palestra, Taut mostra o MiniWin rodando. Como o software não inclui um subsistema gráfico, a tela inicial mostra o logotipo do Windows formado por caracteres alfanuméricos. O sistema ocupa apenas 4 MB de memória e inclui um servidor web simples.

Taut diz que o MinWin é para uso interno apenas. Ele não vai virar produto. Mas pode ser a base para o futuro Windows 7. Ele reconhece que o Vista está pesado e complicado demais. Considerando que ele comanda um grupo de 200 programadores na Microsoft, isso é uma boa notícia. Pode indicar uma mudança na estratégia de desenvolvimento da Microsoft. Da mesma forma que a segurança passou a ter uma prioridade maior para a empresa nos últimos anos, preocupações com a complexidade excessiva do sistema poderão ser levadas em conta no futuro. O Windows Server 2008 deverá ter, em sua configuração mínima, cerca de 1,5 GB. Já é um avanço em comparação com os 4 GB do Vista.

Texto original publicado no Blog do Maurício Grego, editor da Info Exame.

Vocês devem estar se perguntado: porque uma notícia referente ao MS Windows está fazendo aqui, num blog que se propôs a divulgar conhecimento relacionado do mundo do Software Livre? A resposta para isso é um pouco técnica, mas a conclusão é bastante interessante.

Um sistema operacional é um software que tem um relacionamento muito próximo com o hardware. O Windows, o Linux, o MacOS, BSD, etc, são exemplos de SO. Eles são responsáveis por traduzir para o hardware os comandos inseridos pelos usuários, servindo assim como um meio através do qual o ser humano interage com a máquina sem que necessariamente precise saber o significado de um caminhão de zeros e uns, a única linguagem (binária) que um circuito eletrônico entende. Todo sistema operacional se divide, basicamente, em kernel (o núcleo do sistema) e shell (o meio de interação com o usuário, onde são executadas as aplicações – que serão explicadas a seguir).

Sobre o kernel e o shell, são executadas as aplicações. Um editor de texto, um editor de planilhas, um browser de internet, um comunicador de mensagens instantâneas, tudo isso é aplicação. Inclusive a interface gráfica. Interface gráfica é um software que traduz comandos executados pelo computador através de desenhos (ícones), de maneira a facilitar a utilização por parte do usuário, pois ao invés de digitar uma série de comandos, com uma série de parâmetros, basta simplesmente utilizar um dispositivo apontador (também conhecido como mouse) e clicar sobre o referido ícone, onde por exemplo, indica um editor de texto como um desenho de uma folha de papel com uma caneta, um editor de planilhas como uma tabela com dados, etc.

Calma gente, já estou terminando. É que preciso que todos entendam os pormenores do assunto primeiro, para explicar finalmente o porque deste post. 🙂

O GNU/Linux possui um kernel (o Linux propriamente dito), um shell (bash, sh, etc) e interface gráfica (KDE, Gnome, etc). Individuais, separados, atuando em suas respectivas esferas de responsabilidade. Por isso funciona, este é um dos pilares de seu desenvolvimento, e uma das garantias de sua estabilidade. O Windows, até sua versão 3.11 também os possuía, um kernel (o DOS), um shell (o prompt do DOS) e interface gráfica (o Windows propriamente dito). E funcionava. Só que a partir da versão 95, o Windows mesclou tudo numa coisa só, sem distinção. Daí a coisa desandou…

A interface gráfica, e os softwares relacionados a ela, são os processos que mais consomem recursos de um computador, logo são aquelas de execução muito crítica. No Linux, se uma aplicação gráfica (ou mesmo toda a interface) trava, o kernel e o shell continuam a funcionar, sendo necessário apenas reiniciar a referida aplicação. O SO é estável, possui mecanismos pra gerenciar bem estes processos, daí a ocorrência pouco frequente deste tipo de problema. No Windows, quando uma aplicação gráfica trava, não há como saber o que é o que lá dentro, aí ocorrem as famosas “blue screen of death”, ou tela azul da morte. A aplicação compromete a estabilidade do sistema como um todo.

Enfim, a conclusão: a Microsoft, com esta demonstração, está dando a entender, mas sem “dar o braço a torcer”, que está reconsiderando sua estratégia de construção de SO. O elefante branco que se tornou o Windows, na questão de consumo de recursos, manutenção, etc, somadas, além de outras coisas, a estas características descritas por mim logo acima, deixam claro que não foi exatamente um bom passo dado, aquele das versões 3.11 pra 95. E a solução, desde sempre adotada pelos sistemas Unix-like é que realmente funciona. A Apple já tinha percebido isso anteriormente, então migrou seu MacOS para um kernel BSD-like, e incrementou a qualidade de seu SO.

É aquela velha história: “Eu te avisei…”

Mas, para mim, a cereja do bolo desta matéria foi “Taut diz que o MinWin é para uso interno apenas“. Nunca foi segredo que a máxima do casa de ferreiro, espeto de pau sempre se aplicou a Microsoft. Não entendeu? Clique aqui.

Até a próxima. Have Fun! 🙂

Publicado por: karvalhovsky | outubro 19, 2007

Review: Ubuntu Linux 7.10 “Gutsy Gibbon”

Pegando carona no post anterior, aqui vai um review da versão 7.10 da distro Ubuntu, codinome “Gutsy Gibbon”. Escrito por Rafael Rigues.

O mês de outubro chegou e com ele a tradicional versão semestral do Ubuntu, uma das distribuições Linux mais populares da atualidade segundo dados do site DistroWatch.

O Ubuntu Linux 7.10 “Gutsy Gibbon” (Gibão Valente) mantém a tradição de uma distro pequena (apenas 700 MB em um CD), estável e fácil de usar estabelecida por seus antecessores e traz melhorias em várias áreas. Pode não ter as “mais de 300” novidades de um Mac OS X Leopard, que chega no dia 26, mas as mudanças existentes são para melhor e fazem toda a diferença no dia-a-dia do usuário: configuração automática de impressoras, suporte melhorado a hardware (até WinModem funciona), efeitos 3D na interface, busca no desktop, multimídia fácil e que funciona e muito mais.

Interessado? Visite o site oficial e coloque já sua cópia na fila de download (recomendamos o uso do BitTorrent). E enquanto ela não vem, pegue uma xicará de café e nos acompanhe neste review.

Para ler esta matéria na íntegra, clique aqui.

Eu já providenciei minha cópia do Gutsy, e como uso KDE, estou particularmente interessado em testar a versão beta do KDE 4 (das duas uma: ou vai ser muito legal, ou um pesadelo instalar/usar… beta é sempre beta…). Também estou curioso em verificar se realmente o suporte ao hardware está mais robusto, principalmente em se tratando as famigeradas placas de vídeo AMD/ATI.

Tenho também um projeto que pretendo realizar a partir desta distribuição: elaborar um pequeno how-to, onde descreverei as etapas de instalação, configuração e utilização do Kubuntu em meu notebook (ACER Aspire 5672WLMi). Já bati muito a cabeça pra pôr funcionando algumas coisas nele, e gostaria de compartilhar estas experiências, mesmo porque não é exatamente fácil encontrar referências sobre modelos específicos de máquinas. Eu sofri com esta situação, então porque não colaborar com esta demanda?!

Então é isso. Novidades estão por vir. Em breve anuncio oficialmente o que tiver pronto.

Enquanto isso, Have Fun! 🙂

Publicado por: stenio | outubro 19, 2007

Ubuntu Gutsy – 7.10 saindo do forno

Ontem, 19, foi dia de lançamento da nova versão do Ubuntu. Para quem ainda não começou a baixar, aí vão os links:

– desktop CD (Intel x86) – ISO.

desktop CD (Intel x86) – Torrent

É altamente recomendável o download a partir do arquivo .torrent. Caso contrário, terá que sofrer um pouco com o congestionamento nos servidores, afinal, o mundo todo está baixando 🙂

Se você ainda não tem um cliente Torrent instalado no computador, recomendo que use o navegador web Opera. Ele já vem com um cliente Torrent integrado muito bom.

Boa diversão a todos!

Older Posts »

Categorias