Nouvelles
La faille non corrigée d'Internet Explorer, identifiée le 11 décembre dernier, est en train de faire des dégâts sur le Web.
Selon Rick Ferguson, expert de Trend Micro, plus de 10.000 sites internet ont été infectés", pour l'instant principalement en Chine, depuis que la faille a été rendue publique.
Dans son bulletin de sécurité, Microsoft liste les produits concernés par cette faille : Internet Explorer 5.01 Service Pack 4 , Internet Explorer 6 Service Pack 1, Internet Explorer 7 et Internet Explorer 8 Bêta 2 ainsi que toutes les versions de Windows suivantes : Windows XP Service Pack 2, Windows XP Service Pack 3, Windows Server 2003 Service Pack 1, Windows Server 2003 Service Pack 2, Windows Vista, Windows Vista Service Pack 1 et Windows Server 2008.
«Toutes les versions sont touchées, mais à des degrés divers. Il est très rare qu'une faille soit publiée sans que nous soyons prévenus avant, afin de la corriger avant» » a précisé Bernard Ourghanlian, directeur technique et sécurité chez Microsoft France, à l'AFP.
La visite d'un site "contaminé" suffit à infecter la machine d'un utilisateur. Le blog de Cert-Lexsi donne des informations plus techniques sur la faille et son exploitation.
En attendant la publication d'un correctif, dont la date n'est pas communiquée, Microsoft conseille aux utilisateurs de placer le réglage du niveau de sécurité de leur navigateur sur "Haut" et de bloquer l'exécution du fichier Ole32db.dll.
De son côté, Trend Micro conseille d'utiliser Firefox ou un autre navigateur comme Opera.
A mesure que se développe le trafic sur les autoroutes de l'information, le besoin se fait de plus en plus précis pour de nouveaux investissements en vue,
notamment, d'accompagner le développement de l'offre en bande passante.
Derrière les solutions envisageables à ce problème, se profile l'hypothèse d'une sérieuse remise en cause du principe de la neutralité de l'accès à Internet.
Un rapide tour d'horizon des pistes actuellement en discussion dans les grandes métropoles consommatrices de contenus multimédias en réseaux, laisse poindre une sérieuse option pour le recours à des solutions qui, le moins que l'on puisse craindre est, qu'à terme elles remettent en cause le principe de la neutralité car introduisant un recours à des systèmes de paiements qui finiraient par créer des voies de bande passante plus rapide, parce que payante, donc excluant les utilisateurs incapables de se les offrir. L'équation est, il est vrai, claire et inévitable : selon l'Idate (Institut de l'audiovisuel et des télécommunications en Europe), alors que le trafic Internet augmente de 10% par an, la consommation de vidéos en ligne progresse au rythme de 100% par an. Or, les capacités du réseau en bande passante n'ont progressé "que" de 68% l'année dernière.
Ce sont les tentatives engagées par des opérateurs de l'Internet, soucieux d'apporter des réponses techniques, économiquement viables, à cette problématique, qui ont placé le débat sur la scène publique. Durant les dernières élections présidentielles américaines, la question a même figuré parmi les thèmes de campagne, à l'image du président élu, Barack Obama, qui s'en est tenu au principe de la neutralité "Lorsque les opérateurs commencent à donner des privilèges à certains sites web et à certaines applications par rapport à d'autres, les voix les plus faibles se font écraser, et nous tous y perdons", affirmait Obama pendant la campagne électorale... sur le campus de Google. La presse américaine rapporte que le président élu serait beaucoup plus flou dans ses déclarations les plus récentes.
Il y a quelques années déjà, commençait aux Etats-Unis d'Amérique un véritable chassé- croisé de positions à travers lequel se mettaient en opposition des cercles officiels mus par des lobbies liés aux réseaux multimédias. Pressée par l'industrie de lui lâcher la bride en matière de facturation de services, la FTC (Federal Trade Commission) a maintenu une attitude favorable à la neutralité de l'Internet, et invité régulateurs et police fédérale à rester prudents.
Or, certains acteurs du Web ne l'entendent pas de cette oreille et souhaitent que la facturation soit liée au service ou au débit. Par exemple, le débit d'accès à un site Web pourrait être différent selon ce que l'utilisateur paie? Plus il paie, et plus le taux de débit sera important !
Un point de vue rejoint par une position des parlementaires américains qui dans le même temps ont versé un peu dans le moulin de ces opérateurs. La Chambre des représentants a en effet rejeté, durant la même période, en 2006, à 269 voix contre 152 un amendement proposé par les démocrates modifiant le projet de loi Cope (Communications Opportunity, Promotion and Enhencement). Cet amendement avait pour but d'encadrer le principe de neutralité sur Internet en ne conditionnant pas la qualité de l'accès au volume de contenu diffusé.
A l'origine, le Cope Act doit permettre une installation plus généralisée et facilitée du haut-débit, entre autres, aux Etats-Unis. Il comporte un nombre de points traitant de la neutralité d'Internet jugé suffisant par les républicains et les équipementiers.
Le point en débat : la proposition de deux rands opérateurs américains, At&T et Bellsouth, de monnayer la vitesse des débits pour améliorer la rentabilité de leurs investissements, en infrastructures réseaux haut débit. Concrètement, il s'agit de taxer les diffuseurs de contenus les plus gourmands en bande passante. Ceux qui ne payent pas verraient alors leur bande passante se réduire. Un Internet à deux vitesses en quelque sorte.
Les inquiétudes n'ont pas gagné que les équipementiers puisque même les opérateurs du net, soucieux d'offrir des capacités de circulation des fichiers plus rapides, se sont engagés dans des voies qui ont accentué les craintes d'une sérieuse sélection par l'argent.
Le géant Google n'a-t-il pas été accusé de « tourner le dos au principe de Net Neutrality (neutralité du Net) » ? Une question ouvertement posée par le Wall Street Journal suite à l'annonce officieuse de négociations entre le moteur de recherche et des opérateurs téléphoniques et du câble, visant à faire héberger des serveurs Google directement sur les réseaux de ces opérateurs. Selon le quotidien, si ces négociations débouchaient sur un accord, Google abandonnerait un des piliers de la neutralité du Net : la non-préférence envers un opérateur ou un autre pour la transmission des données.
Piqué au vif par l'article du journal, Richard Whitt, conseiller pour les télécoms et les médias de Google à Washington, a répondu sur son blog : s'il concède que le moteur de recherche compte bien placer des serveurs de cache chez les opérateurs, il ne voit pas en quoi cela violerait la neutralité du Net. « Tous les accords de colocation de Google avec les FAI (fournisseurs d'accès à internet) - que nous avons menés via des projets appelés OpenEdge et Google Global Cache - sont non exclusifs, ce qui implique que d'autres entités peuvent bénéficier du même type d'arrangement » explique-t-il. « De plus, aucun de ces FAI ne réclame (ou n'encourage) que le trafic de Google soit traité prioritairement par rapport à d'autres trafics. »
Richard Whitt poursuit en affirmant que cela ne change en rien la position de Google sur la neutralité du Net, un principe auquel « Google reste solidement attaché ».
Il explique aussi que ces accords de colocation avec les opérateurs ne visent qu'à améliorer le temps de chargement des pages depuis leurs serveurs, en particulier pour le téléchargement et le visionnage de vidéos, et à éviter la redondance sur les noeuds de réseaux. En effet, ces serveurs de cache seront utilisés pour mettre rapidement à disposition des abonnés des câblo-opérateurs et fournisseurs d'accès internet à haut débit, les pages et vidéos les plus demandées par les internautes.
En dépit de ces déclarations, il est néanmoins légitime d'avoir des craintes sur la manière dont pourraient être utilisés ces serveurs de cache : diriger les internautes vers certaines pages au détriment d'autres. Une autre menace que, de l'avis de certains observateurs, Google et les FAI pourraient faire peser sur le principe de neutralité du Net
Au plan technologique, doucement mais sûrement, des solutions sont en voie d'expérimentation.
Début juin, Time Warner a ainsi mis en place une tarification selon la bande passante utilisée : 20$ par mois pour 5 Go, 55$ pour 20 Go et 65$ pour 40 Go, avec un dollar supplémentaire par Go au-delà.
Comcast, le plus gros fournisseur d'accès par le câble aux États-Unis, a embrayé en testant des techniques de mesure de trafic plus pointues en Pennsylvanie et en Virginie, après avoir fait l'objet d'un procès pour interruption de téléchargement. L'objectif est de limiter la bande passante pour les gros utilisateurs, et peut-être de surtaxer le 1% d'entre eux qui utilisent plus de 250 Go par mois.
Des problèmes de capacité vont de toute façon se poser sur le réseau à plus large échelle quand on sait que par exemple, Skype avec largement plus de trois cents millions d'utilisateurs en voit déjà près du tiers utiliser la vidéo sur IP pour communiquer - avec les implications en termes de bande passante.
La nouvelle technologie, DOCSIS 3.0 (50 Mbits/sec et jusqu'à 160 à l'avenir), que Comcast souhaite mettre en place pour 20% de ses utilisateurs permettra-t-elle de faire face (entre autres possibilités) ? Les infrastructures devront de toute façon suivre à tous les niveaux et ça, ça n'est pas gagné d'avance. Aux dires de certains observateurs, l'usage même de l'Internet, un réseau absolument pas prévu à l'origine pour tout ce qui s'y pratique aujourd'hui, risque de s'en trouver modifié.
Pour de nombreuses personnalités de la communauté du Web, Vint Cerf (co-inventeur du protocole TCP/IP) en tête, il est acquis, "l'Internet ne sera plus jamais le même".
K.T
"Nous pourrions aller jusque six mois, mais quand les autres le feront aussi et s'ils rendent anonymes" complètement les données passé cette date, a indiqué à l'AFP John Vassallo, conseil de Microsoft pour les affaires européennes.
Microsoft détient seulement 2% de part de marché en Europe, et s'il est seul à changer de comportement, les effets seront limités, a-t-il fait valoir.
Cette durée maximale de stockage de 6 mois avait été conseillée au printemps par le "comité article 29", qui réunit des organismes européens de protection de données comme la CNIL française.
Dans un avis consultatif, le comité avait aussi souligné l'importance d'un anonymat complet et irréversible des données conservées par les moteurs de recherche, afin qu'elles ne puissent plus être reliées à un internaute.
A titre de comparaison, Yahoo! conserve les données pendant 13 mois.
Le premier moteur de recherche mondial Google avait de son côté annoncé en septembre la réduction de moitié, à neuf mois, de la durée après laquelle il rendait ses données anonymes.
Tout en accueillant positivement la nouvelle, le comité article 29 avait regretté que Google dépasse toujours la durée conseillée de six mois, et jugé "toujours insuffisantes" les techniques pour rendre anonymes les données employées par le géant de l'internet. La collecte des données privées des internautes permet de construire un profil de leurs intérêts. Les moteurs de recherche disent s'en servir pour améliorer leur service, avec des résultats correspondant mieux aux attentes des internautes. Mais elle sert aussi à délivrer des publicités ciblées.
Dans un message publié sur le blog de l'entreprise et dans un communiqué, Google indique avoir commencé à numériser des millions de pages de plusieurs publications américaines.
"Pour l'instant, nous avons numérisé plus d'un million d'articles de titres allant de Men's Health au Baseball Digest et à Runner's World", deux magazines sportifs, en passant par des publications locales, "et il y en aura beaucoup d'autres", écrit Google.
Ces magazines sont scannés en couleurs et disponibles sur "Google Book Search", la bibliothèque en ligne créée par le moteur de recherche.
Sur books.google.com, les internautes pourront désormais trouver des liens non seulement vers des livres en relation avec leur recherche, mais aussi vers des magazines. Des recherches avancées sur "Google Book Search" permettront également de consulter les magazines seuls et de les feuilleter en cliquant sur "page suivante" ou "page précédente".
"Les utilisateurs vont pouvoir chercher et lire un nombre croissant de magazines en ligne en couleurs, avec chaque couverture, chaque article et chaque publicité exactement sous la même forme que dans leur version imprimée", explique Google.
Le moteur de recherche veut aussi proposer à terme des résultats qui proviennent de magazines en réponse aux recherches effectuées sur Google.com.
"Pour nos partenaires de l'édition magazine, cette initiative permet d'apporter une durée de vie numérique supplémentaire à des années de travail", souligne Google. "Ces pages contiendront leur marque, des liens vers les sites des magazines et des publicités, ce qui fournira à nos partenaires les moyens de toucher de nouveaux lecteurs et de faire connaître leurs titres en ligne", ajoute le communiqué. Google est parvenu fin octobre à un accord avec l'Association des éditeurs américains et la Guilde des auteurs concernant son projet de scanner des millions de livres. Au terme de cet accord, Google devrait payer 125 millions de dollars pour mettre fin à des poursuites sur la violation des droits d'auteurs.
3.000 attaques de piratage/mois enregistrées à l’EEPAD.
Tant attendu, le cadre législatif sur la cybercriminalité, fin prêt, s’avère une nécessité et il y va même de la sécurité nationale, quand on sait le nombre d’affaires en justice liées à ce fléau. Il demeure qu’en l’absence de statistiques fiables, l’on ignore l’ampleur de ce phénomène transnational. Les rares données sur le sujet nous parviennent de l’EEPAD qui avait estimé récemment le nombre d’attaques contres son environnement à hauteur de 3.000 par mois. Son P-DG, Nouar Harzallah, avait affirmé à ce titre que 60 à 80% de ces attaques ciblant les sites web sont d’origine étrangère en provenance notamment de la Russie et des pays de l’Europe de l’Ouest, alors que les 20 à 30% restants sont l’œuvre de jeunes amateurs algériens.
Au Etats-Unis, les auteurs des cybercrimes spécialisés dans «le phishing» auraient causé une perte de 3 milliards de dollars aux internautes du pays de l’Oncle Sam et ce, en usant de faux sites web destinés à capter les numéros de cartes bancaires. La menace informatique a changé de visage, affirment les spécialistes, le risque ne vient pas du seul courrier électronique, mais la visite de certains sites web contaminés transmet aussi les virus. Il a été révélé aussi qu’à travers le monde, près de 30 millions de PC zombies infectés en secret et télécommandés à distance pour mener des attaques ou envoyer des spams sont en vente.
L’Algérie, qui n’est pas coupée de ce monde du crime moderne, a vu s’accentuer les risques en termes de sécurité informatique du fait de la progression continue du nombre d’utilisateurs, d’où la promulgation du dispositif juridique sur la base d’une synergie intersectorielle de lutte contre les crimes et délits liés aux systèmes informatiques et aux TIC. Et comme l’a si bien souligné Younès Grar, conseillé auprès du ministre de la Justice, la nouvelle loi doit prévoir des mesures et des solutions techniques à même de contrecarrer ce phénomène. Au-delà de mettre en place un arsenal de mécanismes et de solutions applicatives du cadre législatif, l’aspect éducatif des utilisateurs du net et de l’outil informatique est aussi à prendre en charge. La sensibilisation et la formation des internautes sur la question restent ainsi une priorité absolue afin de mieux informer sur les risques et vulnérabilités des systèmes informatiques.
Tout ordinateur connecté à un réseau informatique est potentiellement vulnérable à des attaques de chevaux de trois, de vers ou de virus. Plusieurs types d’attaques qui peuvent se manifester par l’interception de communication avec usurpation d’identité ou détournement de message par des dénis de service telles les vulnérabilités des logiciels serveurs, par l’intrusion ou par les trappes sont désormais identifiées.
De part son comportement, l’utilisateur est aussi considéré dans la majorité des cas comme le maillon faible à cause notamment du choix peu réfléchi du mot de passe qui facilite la tâche aux hackers et l’acceptation de messages parvenant d’adresse inconnues.
Source: Liberté
En cas de doute, l’utilisateur se voit proposer une analyse scrupuleuse de sa machine. Invariablement, une faille de sécurité est mise à jour et le gogo ne semble plus avoir d’autres solutions que d’acheter l’un des programmes de sécurité qui s’affichent sur son écran. Voici, en résumé, le cœur d’activité de Branch Software et d’Alpha Red (auxquels il faudrait aussi adjoindre Scan & Repair, Antivirus 2009, MalwareCore, WinDefender, XPDefender, WinSpywareProtect ).
39,95 dollars pour un programme
fantôme
Microsoft et les autorités de l’Etat de Washington (où se trouve le siège mondial de l’éditeur) viennent d’intenter des poursuites contre les responsables de ces sociétés. Car leur programmes, tels que Registry Cleaner XP, vendu au prix de 39,95 dollars, sont inefficaces et n’ont d’autres finalités que de profiter de la crédulité des internautes, affirme Microsoft. Ce type de problème n’affecterait que les utilisateurs de Windows XP qui n’auraient pas installé le Service Pack 2.
Car les malfaisants profiteraient d’une faille dans une fonctionnalité de Windows. Avec le Windows Service Pack 2, cette fonction aurait été désactivée. Nous ne tolérerons pas l’usage d’avertissements alarmistes et de prétendues analyses pour amener le consommateurs à acheter un logiciel censé corrigé un problème qui n’existe pas , a déclaré, à l’occasion d’une conférence de presse lundi 29 septembre à Seattle, Rob McKenna, le procureur de l’Etat de Washington.
01net
L’institut de l’audiovisuel et des télécoms en Europe (Idate), dont le siège se trouve en France, a estimé que le très haut débit est entré dans une période de croissance régulière qui devrait permettre de compter plus de 128 millions d’abonnés dans le monde en 2013.
Selon un communiqué de l’Idate, l’Asie restera le principal marché du très haut débit en 2013.
«La croissance du nombre d’abonnés à travers le monde est notable depuis quelques mois déjà», a indiqué un responsable de l’Idate, cité dans le communiqué.
«En Europe, la disparité actuelle se maintiendra», indique le communiqué, en précisant que «les pays les plus avancés continueront leur progression et les pays les moins avancés verront une accélération notable des projets et des déploiements».
La contribution des compétences algériennes à l'étranger et leur rôle dans le développement économique feront l'objet d'un colloque, à partir d’aujourd’hui, selon la Fondation pour la promotion de la santé et le développement de la recherche (Forem). L'axe de travail de ce colloque sera articulé autour du transfert du savoir-faire, de la modernisation et des technologies, comme appui au développement national, a précisé le président de la Forem, Mustapha Khiati. Ce colloque de trois jours, co-organisé par la Forem et l'Association des compétences algériennes (ACA), vise à identifier les paramètres et acteurs influents qui permettront l'édification d'une économie solide sur une base durable. Quelque 150 experts et chercheurs pluridisciplinaires, dont 40 étrangers, prendront part à ce colloque, notamment des économistes, des biologistes ainsi que des spécialistes dans les domaines des nouvelles technologies de l'information et de la communication, de l'énergie et de l'environnement, a-t-il ajouté.
Par : Rubrique Radar - Liberté Quotidien National
90% des algériens ne connaissent pas l'Internet.
Lire le texte en version arabe.
[Aps 1/12/08]
[Aps 30/11/08]
[Aps 29/11/08]
[Aps 29/11/08]
ALGER - Le Cyberparc de Sidi Abdallah doit avoir une vocation de synergie entre l'économie des technologies de l'information et de la communication (TIC), ainsi que la création de petites entreprises innovantes, a indiqué, lundi à Alger, Hamid Bessalah, ministre de la Poste et des Technologies de l'information et de la communication. M. Bessalah qui intervenait à l'ouverture de la journée "portes ouvertes" sur le multilocataire (Cyberparc de Sidi Abdallah), a affirmé que "le cyberparc doit avoir une vocation de synergie entre l'économie des TIC, la recherche et la création de petites entreprises innovantes, jouant ainsi le rôle de point focal pour les laboratoires nationaux de recherche en TIC". |
[Aps 17/11/08] |
ALGER - Une journée "portes ouvertes" sur le Multilocataire (Cyberparc de Sidi Abdallah) sera organisée lundi par le ministère de la Poste et des Technologies de l'information et de la communication, a annoncé le ministère. Cet événement sera marqué par la signature de contrats avec des entreprises privées désirant s'installer au niveau de l'immeuble multilocataire et d'une convention avec Algérie Télécom, en présence du ministre de la Poste et des Technologies de l'information et de la communication, Hamid Bessalah. |
[Aps 16/11/08] |
ALGER - L'EEPAD lancera à compter du 1er décembre prochain un pack composé de lap-top, d'un accès à l'Internet à haut débit et de services à valeur ajoutée contre un abonnement mensuel de 2.700 dinars, a-t-on appris mercredi auprès de l'entreprise. L'abonné peut ainsi se connecter à une plate-forme qui propose des services et des contenus réalisés notamment par les ingénieurs et techniciens de l'EEPAD, a expliqué à l'APS le PDG de l'établissement, Nouar Harzallah. |
[Aps 14/11/08 |
CONSTANTINE - Le 1er prix du salon national de l'information et la communication, qui a pris fin jeudi soir à Constantine, a été décerné dans la catégorie des courts-métrages au "Jugement", un film produit par la coopérative de jeunes de Boumerdès. Cette production a été choisie parmi 42 oeuvres audiovisuelles de jeunes, en compétition lors de cette rencontre qui s'est déroulée six jours durant au Palais de la Culture Malek Haddad sous le thème "l'audiovisuel au service de la jeunesse". Le 2e prix est revenu à la maison de jeunes Ahmed-Rachedi de Mila pour son superbe dessin animé retraçant le parcours militant du Chahid Larbi Ben M'hidi, et le 3ème à la maison de jeunes de Telagh (Sidi Bel Abbès) qui a participé avec une production intitulée "Le choix". |
[Aps 14/11/08] |
[Aps 11/11/08]