Neosys Technologie
  • 16 janvier 2025
  • Last Update 25 décembre 2024 10h55
  • Libreville

Blog

Actualités

Selon JetBrains, JavaScript demeure le langage le plus utilisé en 2024

Selon le rapport State of Developer Ecosystem Report 2024 de JetBrains, JavaScript est encore le langage de programmation le plus utilisé. Mais TypeScript, Rust et Python présentent des perspectives de croissance les plus prometteuses. TypeScript, Rust et Python ont connu les plus fortes croissances d’adoption des langages de programmation en 2024. (crédit : JetBrains) Quels sont les langages de programmation les plus utilisés ? Depuis 7 ans JetBrains se penche sur la question et vient de livrer son palmarès 2024. Son dernier rapport révèle que JavaScript, avec 61 % des développeurs du monde entier qui l’utilisent pour créer des pages web, reste le langage de programmation le plus populaire au monde. Python arrive deuxième, avec 57 % des développeurs, suivi par HTML/CSS (51 %), SQL (48 %), Java (46 %) et TypeScript (37 %). Parmi ces langages, cependant, seuls Python et TypeScript ont vu leur usage progresser significativement sur un an (+3 points dans les deux cas). L’utilisation de C#, Go et Rust a également augmenté, selon le rapport, mais tous de 1 point sur la même période. Publiée le 11 décembre, cette huitième édition du rapport de JetBrains s’appuie sur les réponses de 23 262 développeurs du monde entier, interrogés entre mai et juin 2024. Pour mieux évaluer les perspectives de croissance des langages de programmation, l’étude introduit le Language Promise Index (LPI), qui se base sur la croissance de l’utilisation du langage au cours des cinq dernières années, la stabilité de cette croissance, la part des développeurs ayant l’intention d’adopter le langage, et la part des utilisateurs actuels du langage qui souhaitent en adopter un autre. Sur la base de cette formule, les « leaders incontestés » du LPI sont TypeScript, Rust et Python, a indiqué l’éditeur. Le recours à TypeScript est passé de 12 % en 2017 à 35 % en 2024, tandis que l’utilisation de Python est passée de 32 % en 2017 à 57 % en 2024 et celle de Rust a bondi de 2 % en 2018 à 11 % en 2024. L’usage de Java a quant à elle légèrement reculé (47 % en 2017 versus 46 % en 2024 alors qu’elle avait bondi à 54 % en 2020). Malgré ses gains, TypeScript ne remplacera pas JavaScript, selon le rapport. Ce dernier reste l’une des technologies les plus populaires et les plus fondamentales dans le secteur du développement logiciel. Néanmoins, TypeScript apporte des avantages par rapport à JavaScript, notamment la détection précoce des erreurs au cours du développement, l’amélioration de la qualité du code, la détection des erreurs au moment de la compilation, un remaniement plus fiable et la prise en charge native des modules ECMAScript 2015 (ES^). Codage dopé à l’IA : ChatGPT devance Github Copilot Go et Rust sont les langages que la plupart des personnes interrogées prévoient d’adopter. Aspirant à remplacer le C++ par des mécanismes stricts de sécurité et de propriété de la mémoire, Rust a vu sa base d’utilisateurs augmenter régulièrement au cours des cinq dernières années. ChatGPT est l’outil de codage d’IA le plus testé, avec 69 % des développeurs l’ayant essayé, suivi par GitHub Copilot à 40 %. Les États-Unis ont le salaire médian le plus élevé pour les développeurs, soit 144 000 $. La plupart des développeurs (38 %) déclarent que la compréhension des besoins des utilisateurs est la partie la plus difficile de leur travail, suivie par la communication avec d’autres fonctions (34 %) et le code (32 %). Les bases de données open source – MySQL, PostgreSQL, MongoDB, SQLite et Redis – dominent les options de stockage utilisées par les développeurs dans l’écosystème JetBrains. Enfin, Amazon Web Services reste de loin la plateforme cloud la plus utilisée (46% des répondants), suivie de Microsoft Azure (17%).

Read More
Actualités

Gemini Code Assist : Google veut aider les développeurs

C’est un peu la promesse de tous les assistants de codage et de la GenIA : nous aider au quotidien et générer du code pertinent. Google Code Assist peut être utilisé dans les principaux IDE du marché (Visual Studio Code, IntelliJ, PyCharm, etc.). Il supporte plus de 20 langages. Comme les autres solutions, tout passe par le prompt / chat en langage naturel. Code Assist utilise les dernières générations de LLM : Gemini 2.0 Flash. Il affiche beaucoup de promesses : – un flux constat disponible dans son IDE – un toolkit pour étendre les possibilités – apporter une qualité de réponse et minimiser la latence – personnalisation du fonctionnement avec nos propres données – prise en compte du contexte et du code utilisé Deux versions sont disponibles : – Code Assist Standard : complétion du code, génération de code, support des données locales, Firebase, Colab Enterprise, à partir de 22,80 $ / mois ou 19 $ en annuel – Code Assist Enterprise : pour les entreprises et les équipes, plus de technologies Google supportées, à partir de 54 $ Les tarifs sont globalement plus élevés que ceux de GitHub Copilot. L’outil n’a pas le droit à l’erreur. source: https://www.programmez.com/actualites/gemini-code-assist-google-veut-aider-les-developpeurs-37168

Read More
Actualités

Les dangers de la supply chain : bien plus que de simples failles logicielles

Face à la multiplication des cybermenaces, la sécurité de la supply chain est devenue une priorité absolue dans l’agenda des entreprises. Depuis quelques années, des entreprises telles qu’Okta, MOVEit et Snowflake ont été la cible d’attaques massives qui ont provoqué des violations de données significatives au sein de grandes entreprises à travers le monde. L’exemple de Solarwinds est encore dans toutes les mémoires. Et depuis, le volume de ce type d’attaques n’a cessé de croître. D’après Gartner, près de 50 % des entreprises seront victimes d’une attaque contre leur chaîne d’approvisionnement logicielle d’ici 2025. De son côté, l’Agence de cybersécurité de l’Union européenne (ENISA) estime que ces attaques pourraient même représenter la menace principale à l’horizon 2030. En revanche, s’en tenir uniquement aux risques inhérents aux logiciels est une grossière erreur. Toute connexion qui permette d’accéder à un réseau expose l’entreprise à des risques qu’il serait dangereux de sous-estimer. Pour préserver leur cyberrésilience et garantir la continuité de leurs activités, les entreprises doivent tenir compte des risques inhérents à leurs chaînes d’approvisionnement numériques. Autrement dit, elles doivent abandonner sans attendre les modèles de sécurité traditionnels, désormais obsolètes et incapables de les protéger contre les menaces actuelles. Intensification des menaces contre la chaîne d’approvisionnement Désormais conscients qu’attaquer la chaîne d’approvisionnement peut s’avérer à la fois moins risqué et plus lucratif, les acteurs malveillants redoublent d’efforts pour exploiter ces failles stratégiques. L’adoption généralisée du cloud n’a fait qu’exacerber ce défi. Les entreprises s’appuient de plus en plus sur des services cloud, souvent sans disposer d’une compréhension précise de la façon dont ces services s’intègrent à l’ensemble de leur infrastructure réseau. Selon la dernière étude d’Illumio, 46 % des responsables de la sécurité déclarent manquer de visibilité sur la connectivité de leurs services cloud. Avec plus de la moitié des violations de sécurité imputables au cloud, elles doivent absolument éliminer ces zones d’ombre si elles veulent protéger efficacement leurs infrastructures numériques. Le poids des réglementations sur la chaîne d’approvisionnement Pour renforcer la cyberrésilience, l’Union européenne a adopté des réglementations telles que le DORA (Digital Operational Resilience Act) et la directive NIS2 (Network and Information Systems 2). L’objectif de ces deux textes est de sécuriser la supply chain et de responsabiliser les entreprises en matière de cybersécurité. DORA s’adresse plus particulièrement aux fournisseurs de services informatiques et établit une approche rigoureuse en définissant de manière précise les exigences de conformité pour les entreprises du secteur financier et leur prestataires. Ces dispositions rappellent l’importance d’une compréhension exhaustive des risques liés aux tiers et s’inscrivent dans une démarche globale permettant d’assurer la continuité opérationnelle de l’entreprise. Le principal objectif de ce cadre réglementaire est de renforcer la résilience opérationnelle dans l’ensemble du secteur financier. Il faut pour cela que les entreprises identifient les systèmes et les données les plus critiques pour leurs opérations, qu’elles évaluent les risques qui leur sont associés et qu’elles analysent les vecteurs d’attaque potentiels, dont ceux qui peuvent menacer leurs chaînes d’approvisionnement. La directive NIS2 accorde elle aussi une attention particulière aux risques de la chaîne d’approvisionnement des infrastructures essentielles. Ses exigences en matière de gestion des risques introduisent des politiques de sécurité plus strictes, bien qu’elles soient moins détaillées que celles prévues par DORA. Toutefois, l’objectif fondamental reste le même : renforcer la résilience opérationnelle afin d’assurer la continuité des services critiques, même en cas de cyberattaques. La sécurité de la chaîne d’approvisionnement : une approche basée sur les risques Toutes les entreprises sont confrontées aux vulnérabilités propres à leur chaîne d’approvisionnement. Il n’existe malheureusement pas de remède miracle pour les éradiquer. Quel que soit leur budget, toutes les entreprises se doivent de sécuriser leur chaîne d’approvisionnement grâce à une approche fondée sur les risques. Pour réussir, elles doivent concentrer leurs efforts sur leurs actifs, leurs charges de travail et leurs réseaux les plus critiques, ceux dont la compromission pourrait gravement nuire au fonctionnement et à la réputation de leur organisation. Une fois les actifs critiques identifiés, les équipes de sécurité peuvent anticiper les menaces en cartographiant les voies d’attaque potentielles et en ciblant les zones de vulnérabilité prioritaires. Le périmètre de ces analyses doit s’étendre au-delà des frontières de l’entreprise pour inclure les tiers connectés. Les points d’accès sont nombreux : logiciels de comptabilité ou de paie basés sur le cloud, sous-traitants, services de maintenance ou tout prestataire de nettoyage ayant accès au système. Ainsi, toute personne ou entité au sein de la chaîne d’approvisionnement, même avec un accès restreint au réseau, peut servir de vecteur pour une attaque. Le Zero Trust est essentiel Une fois les connexions entrantes et sortantes avec les fournisseurs clairement identifiées, la prochaine étape consiste à encadrer et à restreindre l’accès aux ressources. Dans ce processus, il est indispensable d’appliquer le Zero Trust. Inspiré du principe « ne faire confiance à personne, tout vérifier », ce modèle exclut toute confiance implicite dans la chaîne d’approvisionnement. Chaque tentative d’accès est soumise à une vérification stricte pour empêcher les acteurs malveillants de contourner les systèmes de sécurité et d’atteindre leurs cibles. Bien que l’Union européenne n’ait pas explicitement adopté le Zero Trust, de nombreux éléments des réglementations DORA et NIS2 reflètent les principes de cette approche. En appliquant des mesures strictes pour restreindre l’accès qui n’autorisent que les utilisateurs indispensables et authentifiés, ces normes contribuent à réduire les risques associés à des chaînes d’approvisionnement numériques complexes. La résilience, une approche plus réaliste que la prévention L’idéal serait sans doute de prévenir tous les incidents avant qu’ils ne se produisent. Malheureusement, la réalité est souvent bien différente. Des attaques comme celle qui a ciblé la chaîne d’approvisionnement de SolarWinds, où des malwares ont été déployés via des logiciels légitimes déjà installés, montrent à quel point il est difficile d’anticiper ce type de menaces. Des mesures proactives, telles que la microsegmentation, permettent de limiter la propagation des violations et peuvent considérablement réduire l’impact opérationnel d’une attaque. La résilience, plus pragmatique que la prévention, aide les organisations à allouer efficacement leurs ressources. En identifiant leurs principales vulnérabilités, elles peuvent prioriser leurs défenses

Read More
Actualités

Les cybercriminels s’intéressent de plus en plus à SAP

Selon un rapport présenté lors de la conférence Black Hat Europe 2024, alors qu’ils ont été longtemps considérés comme une boîte noire opaque, les systèmes d’entreprise SAP font l’objet de plus en plus d’attaques de la part des pirates. A l’occasion de la Black Hat Europe qui s’est tenue à Londres du 9 au 12 décembre, Yvan Genuer, chercheur principal en sécurité chez Onapsis (éditeur de sécurité des ERP), a dévoilé les résultats d’une enquête basée sur quatre années de données de renseignement sur les menaces. Elle montre qu’à partir de 2020, jusqu’à la fin de l’année 2023, les pirates ont manifesté un intérêt persistant pour les systèmes ERP de SAP. La grande majorité (87 %) des entreprises figurant sur la liste Forbes Global 2000 utilisent SAP. L’étude à réaliser Onapsis et Flashpoint, un partenaire de recherche sur les menaces, ont analysé les activités sur les forums criminels, les incidents, les sites de chat et les sites de groupes de ransomware. Divers groupes, dont des groupes cybercriminels (FIN13 « Elephant Beetle », le groupe cybercriminel russe FIN7 et Cobalt Spider), des équipes de cyber-espionnage (APT10 en Chine) et des ‘script kiddies’, ces pirates néophytes sans compétences informatiques, mais très néfastes, s’attaquent tous activement aux vulnérabilités liées à SAP. Les vastes quantités de données détenues par les systèmes basés sur la firme allemande en font une cible pour les groupes de cyber-espionnage. D’autant que l’énorme volume de transactions attire fortement les cybercriminels avides d’argent. Les exploits SAP, vendus par des groupes criminels Sur les forums, les vulnérabilités CVE-2020-6287 (Recon) et CVE-2020-6207 (défaut d’authentification dans SAP Solution Manager) ont alimenté de nombreuses discussions sur la meilleure façon d’exploiter les systèmes SAP. Onapsis a cité un exemple dans lequel un prétendu exploit ciblant SAP Secure Storage a été mis en vente à 25 000 dollars en août 2020. Des acheteurs ont proposé de payer 50 000 dollars pour l’exécution de code à distance avant authentification de NetWeaver ou pour des exploits de contournement d’authentification en septembre 2020. Des messages ultérieurs proposaient jusqu’à 250 000 dollars pour des exploits fonctionnels contre les systèmes SAP. Selon Onapsis, entre 2021 et 2023, les discussions sur les services cloud et web spécifiques à SAP ont augmenté de 220 % sur les forums de cybercriminels. Ces forums sont utilisés pour discuter de détails sur la manière d’exploiter les failles SAP, mais aussi pour échanger des conseils et des astuces sur la monétisation des compromissions SAP et sur la façon d’exécuter des attaques contre des victimes potentielles. Parallèlement, depuis 2021, le nombre d’incidents liés à des ransomwares impliquant des systèmes SAP a été multiplié par cinq (400 %). Les vulnérabilités SAP non corrigées sont également exploitées et utilisées dans les campagnes de ransomware. Selon Onapsis, les exploits critiques publics datent de quatre ans et perdent donc de leur efficacité, si bien que les acteurs de la menace recherchent des armes « fraîches ». Les brèches divulguées publiquement dans les applications SAP, comme CVE-2021-38163 et CVE-2022-22536, entre autres, sont aussi ciblées. Les pirates en quête de vulnérabilités résolues, mais non corrigées De nombreuses attaques exploitent des vulnérabilités connues, mais non corrigées dans les systèmes SAP. Selon Onapsis, la demande de failles SAP non corrigées de la part de divers groupes ne fait que croître, car elles représentent un retour sur investissement potentiellement énorme. « SAP n’est plus une boîte noire, et il faut désormais considérer les applications SAP comme des cibles », a averti Yvan Genuer d’Onapsis, ajoutant que les systèmes exposés à Internet n’étaient pas les seuls à être piratés. Selon l’éditeur en sécurité, la complexité des systèmes SAP et leur intégration dans des processus d’entreprise plus larges posent des défis uniques en matière de protection. Les entreprises doivent donner la priorité à la gestion régulière des correctifs, à l’évaluation des vulnérabilités et à l’adoption de pratiques avancées de renseignement sur les menaces avant d’avoir une longueur d’avance sur les menaces potentielles. Des tiers ont la même analyse Des experts tiers indépendants sont d’accord avec les conclusions d’Onapsis et reconnaissent que les systèmes basés sur SAP intéressent de plus en plus les attaquants. « Les systèmes SAP sont des cibles de choix pour les attaquants en raison de leur rôle essentiel dans la gestion des opérations des grandes entreprises et du stockage de données sensibles comme les transactions financières, la propriété intellectuelle et les informations personnelles », a déclaré Chris Morgan, analyste principal du renseignement sur les cybermenaces chez ReliaQuest. « Le développement d’un exploit capable de déchiffrer le stockage sécurisé et de faciliter le mouvement latéral au sein des systèmes SAP indique un niveau élevé d’expertise technique et d’effort, ce qui justifie un prix élevé. » Par exemple, sur un forum cybercriminel de premier plan, ReliaQuest a découvert un exploit ciblant les systèmes SAP proposé pour près de 25 000 dollars (payables en bitcoins) et initialement listé en août 2020. L’exploit est censé faciliter les mouvements latéraux au sein des systèmes ciblés. « Le message prétend que l’exploit peut utiliser SAP Secure Storage pour découvrir des identifiants, élever les privilèges et finalement compromettre d’autres systèmes SAP au-delà de la cible initiale », a rapporté ReliaQuest. Secure Storage est essentiel pour la gestion des données sensibles et des informations d’identification dans un environnement SAP, ce qui rend tout exploit visant les systèmes SAP extrêmement précieux pour quiconque cherche à obtenir un accès non autorisé ou à élever ses privilèges.

Read More
Actualités

En 2024, Microsoft, Amazon, Google et Meta ont dépensé 100 milliards de dollars dans leurs infrastructures d’IA

Les quatre géants américains ont acheté des centaines de milliers de cartes graphiques auprès de Nvidia afin d’accroître leur puissance de calcul pour entraîner et faire tourner des modèles d’intelligence artificielle générative. Près de 100 milliards de dollars. C’est la somme dépensée cette année par Microsoft, Amazon, Google et Meta dans leurs data centers dédiés à l’intelligence artificielle générative, selon une estimation du cabinet Omdia, citée par le Financial Times. Un montant colossal qui symbolise les investissements nécessaires pour entraîner puis faire tourner les derniers modèles d’IA. Microsoft en tête Dans le détail, c’est Microsoft qui dépense le plus pour sa plateforme de cloud Azure. Le groupe de Redmond, associé à OpenAI, a investi plus de 30 milliards de dollars. Il est suivi par Amazon (26 milliards), Google (22 milliards) et Meta (20 milliards). Ces chiffres ne sont pas officiels: les quatre groupes ne communiquent en effet que sur leurs dépenses en capital, qui inclut d’autres investissements que l’IA. La concurrence est très loin derrière: 8 milliards pour ByteDance, la maison mère chinoise de TikTok, 7 milliards pour xAI, la start-up fondée par Elon Musk, 6 milliards pour Tencent et 5 milliards pour Oracle. Apple ne cumule que 3 milliards de dollars d’investissements. Nvidia en profite Selon Omdia, 43% de ces dépenses se sont dirigées vers Nvidia, dont les cartes graphiques dédiées à l’IA sont considérées comme les plus avancées. Microsoft a ainsi acheté de 500 000 GPU H100 et H200, dont le prix catalogue oscille entre 25 000 et 40 000 dollars pièce. La société a aussi déployé 200 000 puces Maia, développées en interne. Et elle a passé une commande de 96 000 GPU MI300 à AMD. Derrière Microsoft, les plus gros clients de Nvidia en volume sont ByteDance et Tencent. Les deux concurrents chinois ont acheté plus de 200 000 GPU chez le groupe de Santa Clara. Mais il s’agit de modèles beaucoup moins puissants (et donc moins chers), les H800 puis H20, conçus pour échapper aux restrictions d’exportation vers la Chine imposées par Washington. Meta, Amazon et Google ont acheté autour de 200 000 GPU à Nvidia. Les trois groupes ont cependant déployé chacun plus d’un million de puces maison dans leurs data centers. Celles-ci représentent donc une part plus importante de leurs investissements dans l’IA. source: https://www.usine-digitale.fr/article/en-2024-microsoft-amazon-google-et-meta-ont-depense-100-milliards-de-dollars-dans-leurs-infrastructures-d-ia.N2224503

Read More
Actualités

Une infrastructure cloud, qu’est-ce que c’est ?

Présentation L’infrastructure cloud décrit les composants nécessaires pour le cloud computing, notamment le matériel, les ressources virtualisées, et les ressources de stockage et de réseau. Vous pouvez considérer l’infrastructure cloud comme l’ensemble des outils nécessaires à la création d’un cloud. Pour héberger des services et des applications dans le cloud, vous avez besoin d’une infrastructure cloud. Comment fonctionne une infrastructure cloud ? Une technologie ou un processus d’abstraction comme la virtualisation permet de dissocier les ressources du matériel physique et de les regrouper dans des clouds. Les logiciels d’automatisation et les outils de gestion allouent ces ressources et provisionnent de nouveaux environnements afin que les utilisateurs puissent accéder aux ressources dont ils ont besoin, quand ils en ont besoin. Qu’est-ce qui compose une infrastructure cloud ? Une infrastructure cloud est constituée de plusieurs éléments, connectés entre eux dans une architecture unique sur laquelle repose l’exploitation de l’entreprise. Ce type de solution se compose généralement de matériel ainsi que de composants de virtualisation, de stockage et de mise en réseau. Le terme « infrastructure cloud » est également utilisé pour désigner un système de cloud computing complet, une fois que tous les éléments qui le constituent ont été rassemblés, ainsi que les technologies elles-mêmes, prises individuellement. Composants de l’infrastructure cloud Matériel Même si vous considérez les clouds comme des entités virtuelles, ils fonctionnent sur du matériel physique qui fait partie de l’infrastructure. Un réseau cloud est constitué de différents composants matériels physiques qui ne sont pas forcément situés au même endroit. Le matériel comprend les équipements réseau, tels que les commutateurs, les routeurs, les pare-feu et les modules d’équilibrage de charge, les ensembles de stockage, les systèmes de sauvegarde et les serveurs. La technologie de virtualisation assure la connexion des serveurs entre eux, dissocie et extrait les ressources pour que les utilisateurs puissent y accéder. Virtualisation La virtualisation est une technologie qui sépare les fonctions et les services informatiques du matériel. Un logiciel, appelé hyperviseur, supervise le matériel physique et extrait les ressources de la machine, notamment la mémoire, la puissance de calcul et le stockage. Une fois ces ressources virtuelles allouées dans des pools centralisés, elles deviennent des clouds. Avec les clouds, vous bénéficiez des avantages d’un accès en libre-service, d’une mise à l’échelle automatisée de l’infrastructure et de pools de ressources dynamiques. Stockage Dans un datacenter, les données peuvent être stockées sur différents disques qui sont regroupés dans un ensemble de stockage unique. La gestion du stockage permet de garantir une sauvegarde efficace des données, une suppression régulière des sauvegardes anciennes et une indexation des données qui facilite leur récupération en cas de défaillance d’un des composants de stockage. La technologie de virtualisation dissocie l’espace de stockage des systèmes matériels afin que les utilisateurs puissent y accéder sous la forme d’un système de stockage dans le cloud. Une fois que le stockage est converti en une ressource cloud, vous êtes libre d’ajouter ou de supprimer des disques, de réassigner des composants matériels et de répondre aux changements sans avoir à provisionner manuellement des serveurs de stockage distincts pour chaque nouveau projet. le réseau ; Le réseau est constitué de câbles physiques, de commutateurs, de routeurs et d’autres équipements. Les réseaux virtuels sont bâtis sur ces ressources physiques. Une configuration de réseau cloud comprend généralement plusieurs sous-réseaux, qui ont chacun un niveau de visibilité différent. Le cloud permet de créer des réseaux LAN virtuels (VLAN) et attribue des adresses statiques et/ou dynamiques en fonction des besoins de toutes les ressources du réseau. Les ressources cloud sont distribuées aux utilisateurs par l’intermédiaire d’un réseau, tel qu’Internet ou l’intranet, pour qu’ils puissent accéder aux services ou applications cloud à la demande et à distance. Infrastructure de cloud public, privé et hybride Les éléments de base de l’infrastructure cloud sont les mêmes pour un cloud privé, un cloud public, ou une combinaison des deux. Quel que soit le type de cloud computing avec lequel vous souhaitez commencer, vous avez besoin d’une infrastructure cloud. Vous pouvez créer un cloud privé vous-même à l’aide de ressources qui vous sont réservées, ou utiliser un cloud public en louant l’infrastructure cloud à un fournisseur de cloud, qui se chargera de sa mise en place.  Infrastructure cloud et architecture cloud Une architecture cloud correspond à la méthode d’intégration de chacune des technologies qui permettent de créer des environnements de cloud computing. Il s’agit de la méthode utilisée pour connecter tous les composants des clouds, à savoir le matériel, les ressources virtuelles, les réseaux, les systèmes d’exploitation, ainsi que les solutions de middleware, d’automatisation et de gestion, les conteneurs, etc. Si l’on considère que l’infrastructure cloud correspond aux outils dont vous avez besoin pour créer un cloud, alors l’architecture cloud représente le modèle à suivre pour le créer. Pour mieux comprendre, pensez à la construction d’une maison : il vous faut des matériaux et un plan. Sans plan, vous n’avez que des ressources : du bois, du béton et des clous. En suivant un plan, ces matériaux peuvent être combinés de manière stratégique pour créer les fondations, le toit et les murs constitutifs d’une maison. Pourquoi concevoir un cloud Red Hat ? Notre stratégie de cloud hybride ouvert basée sur des technologies Open Source constitue une base fiable pour tous vos déploiements dans le cloud public, privé ou hybride. Nous vous proposons un système d’exploitation standard (comme Linux) qui fonctionne de façon homogène dans tous les environnements, une plateforme de conteneurs qui permet de déplacer les applications en paquet d’un cloud à l’autre, ainsi que des outils qui vous aident à gérer et à automatiser le tout. Un cloud Red Hat vous permet de réussir vos déploiements sur des centaines de plateformes de cloud public certifiées ou de créer votre propre cloud privé. Nous apportons à vos environnements de cloud hybride d’entreprise l’interopérabilité, la portabilité des charges de travail et la flexibilité associées aux projets Open Source développés par des communautés constituées de milliers de développeurs qui travaillent pour connecter les datacenters aux clouds, intégrer des conteneurs à l’infrastructure et tester les fonctionnalités de sécurité.

Read More
Actualités

IA : la start-up Databricks lève 10 milliards de dollars

Cette nouvelle levée de fonds témoigne de l’appétit intact des investisseurs pour les fleurons de l’intelligence artificielle. La start-up américaine d’analyse de données et d’intelligence artificielle (IA) Databricks a annoncé mardi avoir levé 10 milliards de dollars auprès d’investisseurs, opération qui valorise cette jeune société 62 milliards de dollars. Parmi les participants à ce nouveau tour de table figurent plusieurs acteurs de référence du capital-investissement dans le secteur technologique, notamment Andreessen Horowitz et Thrive Capital, selon un communiqué. Fondé en 2013 par des étudiants de l’université de Californie à Berkeley, Databricks propose aux entreprises des plateformes de gestion et d’analyse de données, qui s’appuient sur l’informatique à distance (cloud). La start-up de San Francisco (Californie) s’est aussi engouffrée dans la vague de l’IA générative et permet à ses clients d’intégrer à ses plateformes leurs interfaces utilisant cette technologie. En juin, le directeur financier Dave Conte a indiqué que la société prévoyait d’atteindre, mi-2024, un rythme d’activité correspondant à un chiffre d’affaires annualisé de 2,4 milliards de dollars. Lors de la dernière année fiscale complète, conclue fin janvier 2024, les revenus se sont élevés à 1,6 milliard de dollars. En juin, Databricks a racheté l’entreprise d’optimisation de gestion des données Tabular pour plus d’un milliard de dollars. Pas d’entrée en Bourse à court terme Cette nouvelle levée de fonds témoigne de l’appétit intact des investisseurs pour les fleurons de l’IA, en particulier sur le marché du capital-investissement. Databricks semble ainsi se détourner, pour l’instant, de la Bourse, où son introduction est anticipée depuis plusieurs années. Malgré quelques rayons de soleil, au premier semestre surtout, l’année 2024 a été calme pour les introductions en Bourse à New York, même si de nombreux observateurs s’attendent à une accélération en 2025. Outre le financement du développement de l’entreprise, la levée de fonds annoncée mardi va permettre à ses salariés et anciens employés de vendre des actions, a indiqué Databricks, sans donner d’explication supplémentaire. «Cette levée de fonds a été largement sursouscrite et nous sommes ravis d’accueillir certains investisseurs parmi les plus renommés au monde», a commenté Ali Ghodsi, co-fondateur et directeur général, cité dans le communiqué. «Nous ne sommes qu’aux prémices de l’ère de l’IA», a-t-il ajouté. source: https://www.lefigaro.fr/secteur/high-tech/ia-la-start-up-databricks-leve-10-milliards-de-dollars-20241217

Read More
Actualités

« L’IA ne remplacera pas notre capacité de réfléchir »

L’intelligence artificielle s’immisce dans le quotidien des jeunes, de la rédaction de CV aux applications de rencontre. Comment vivent-ils cette révolution technologique? Des élèves du secondaire et des cégépiens prennent la parole. Entre fascination et vigilance C’est inspirant, mais ça fait peur aussi, parce que ce n’est pas la vérité, confie Jérémie à propos des images de synthèse. Rita remarque l’omniprésence de l’IA sur les réseaux sociaux, où elle devient parfois envahissante, tandis que Camila s’inquiète du risque de paresse intellectuelle : Les humains aiment ce qui est simple. Sa solution? S’imposer des limites. Noémie abonde dans le même sens : Il faut s’en servir pour des idées, pour dépasser la page blanche… mais après, il faut savoir bien choisir. Des usages réfléchis Ces observations émergent d’ateliers sur l’IA organisés par Radio-Canada durant l’automne 2024 dans des bibliothèques publiques. L’initiative vise à démystifier la technologie auprès des jeunes tout en cultivant leur esprit critique. Au fil des discussions, les usages de l’IA se révèlent aussi variés que créatifs. Raphaël y trouve un soutien pour sa dyslexie, gagnant en confiance en français. Zakaria l’exploite pour programmer : C’est littéralement un outil pédagogique. Je crée des jeux vidéo, je suis débutant, et l’IA me permet d’apprendre plus vite. Pour la rédaction de CV, beaucoup y voient une aide précieuse, tout en veillant à préserver leur authenticité. Même constat quand on évoque les applications de rencontre : pas question de se faire passer pour quelqu’un d’autre.  Zora résume la situation : si les parents ont peur que ça remplace la capacité de réfléchir, il s’agit pour elle d’apprendre à utiliser l’IA à bon escient, comme les réseaux sociaux. Des voix à entendre Plusieurs rapports soulignent l’importance de faire davantage de place aux jeunes dans les discussions sur l’encadrement et le développement de l’IA. Dans un rapport paru en 2024, l’Institut canadien de recherches avancées (CIFAR) recommande d’inclure les enfants et les adolescents dans la recherche et le développement des technologies d’IA. Une position qui rejoint les Orientations stratégiques sur l’IA destinée aux enfants publiées par l’UNICEF en 2021. Pour Yoshua Bengio, fondateur et directeur scientifique de Mila, l’institut québécois d’intelligence artificielle, les jeunes ne sont pas assez entendus dans ces débats. L’IA va changer le monde, dit-il. Il faut que les décisions qu’on prend tiennent compte des intérêts de tout le monde. Une préoccupation que partage Jérémie : L’IA est un outil extraordinaire. L’important, c’est d’apprendre à bien l’utiliser, en respectant ce qui est fondamentalement humain. Les réflexions des jeunes croisent celles de chercheurs, d’artistes et de professionnels dans une émission spéciale qui sera présentée le dimanche 5 janvier à 20 h sur ICI PREMIÈRE, avec Chloé Sondervorst. Ensemble, ils explorent quatre dimensions de notre avenir par rapport à l’IA : l’apprentissage, la création, le travail et les relations sociales. Invités : Sasha Luccioni, responsable de l’IA et du climat chez Hugging Face, Yoshua Bengio, directeur scientifique de Mila, l’institut québécois d’intelligence artificielle, Martine Bertrand, spécialiste en intelligence artificielle, Industrial, Light and Magic, Noel Baldwin, directeur général, Centre des compétences futures, Andréane Sabourin Laflamme, professeure de philosophie au Collège André-Laurendeau et cofondatrice du Laboratoire d’éthique du numérique et de l’IA, Keivan Farzaneh, conseiller technopédagogique principal au Collège Sainte-Anne, Kerlando Morette, entrepreneur, président et fondateur de AddAd Media, Jocelyne Agnero, chargée de projets, Carrefour Jeunesse Emploi centre-ville de Montréal, Douaa Kachache, humoriste, Matthieu Dugal, animateur, Marie-José Montpetit, chercheuse en technologies numériques et Elias Djemil-Matassov, artiste multidisciplinaire. Ces ateliers se sont tenus dans la bibliothèque Julio-Jean-Pierre à Montréal-Nord, la bibliothèque Monique-Corriveau à Québec et le Créalab de la bibliothèque Robert-Lussier à Repentigny avec la participation des élèves et des enseignants des écoles De Rochebelle et Henri-Bourassa ainsi que des étudiants et professeurs du Cégep de Lanaudière à L’Assomption, et avec la collaboration d’IVADO et de l’Association des bibliothèques publiques du Québec. source: https://ici.radio-canada.ca/nouvelle/2128118/intelligence-artificielle-reflexion

Read More
Actualités

Intelligence artificielle : une mine d’or pour les entreprises

Depuis le début de 2016, les progrès de l’intelligence artificielle (IA) ont été décrits et analysés dans des publications aussi variées que The Economist, Rolling Stone, Time et Fortune sous des titres accrocheurs comme « La révolution de l’intelligence artificielle » et « IA : la marche des machines ». Au-delà des scénarios de science-fiction où les machines intelligentes se retournent contre leurs créateurs, l’intelligence artificielle progresse à grands pas et permet de concevoir et de réaliser des systèmes de plus en plus impressionnants. Certaines personnes, notamment Elon Musk, fondateur de Tesla et de SpaceX, estiment par exemple que les voitures sans conducteur seront au point d’ici deux ans. Avant tout, l’intelligence artificielle est une discipline scientifique qui combine l’informatique, les mathématiques, l’ingénierie et la statistique. C’est un domaine de recherche auquel se consacre une communauté universitaire depuis plus de 50 ans. Cette science au goût du jour a vu ses performances croître de manière prodigieuse en grande partie grâce au big data et à la puissance de calcul des ordinateurs modernes. Des techniques d’apprentissage Depuis une dizaine d’années, l’intelligence artificielle progresse à pas de géant en grande partie grâce à l’apprentissage automatique (machine learning) et plus particulièrement aux techniques d’apprentissage profond (deep learning). Les algorithmes d’apprentissage automatique « apprennent » en extrayant des connaissances opérationnelles à partir de données (c’est donc un apprentissage inductif). Par exemple, de tels algorithmes peuvent extraire les préférences de clients d’une entreprise à partir de leurs transactions antérieures. On utilise ensuite ces algorithmes pour généraliser les résultats à de nouvelles situations similaires (soit, dans l’exemple précédent, pour prédire les préférences futures des mêmes clients). Par rapport à la statistique classique, qui s’intéresse d’abord à la compréhension des données et notamment à leurs relations causales – c’est-à-dire à démontrer ce qui cause quoi –, l’apprentissage automatique se concentre sur la qualité des prédictions, au détriment éventuel de l’interprétabilité des paramètres estimés. L’apprentissage profond est inspiré par la structure du cerveau humain et, comme celui-ci, utilise des réseaux de neurones. Les neurones sont organisés en plusieurs couches qui utilisent toute l’information de la couche précédente, d’où la notion de profondeur. Ces réseaux ne sont évidemment qu’un modèle très simplifié de notre cerveau, mais ils ont la particularité de pouvoir utiliser leurs couches pour représenter les connaissances acquises à différents degrés d’abstraction. Par exemple, à partir de données transactionnelles, un réseau de neurones peut représenter, avec ses premières couches, les caractéristiques des articles que les clients aiment se procurer. Ces caractéristiques sont combinées par les couches suivantes pour représenter des groupes d’articles souvent achetés ensemble. Les couches finales combinent ces groupes pour représenter le profil d’acheteur de chaque client. Les progrès en apprentissage profond ont permis d’améliorer la performance des algorithmes d’apprentissage dans des tâches de perception jugées particulièrement difficiles pour les ordinateurs. Par « perception », on entend ce qui est relié aux cinq sens humains. Le champ de la vision par ordinateur consiste à comprendre le monde qui nous entoure à l’aide d’images et de vidéos, un peu comme l’appareil visuel humain le permet. Les algorithmes d’apprentissage profond surpassent maintenant les êtres humains dans certaines tâches de reconnaissance d’objets. La reconnaissance de la parole constitue aussi un terrain fertile : les meilleurs outils de reconnaissance récents (par exemple ceux des téléphones intelligents) utilisent l’apprentissage profond. La contribution du big data Par définition, les algorithmes d’apprentissage automatique dépendent en grande partie de la qualité et de la quantité de données disponibles pour chaque tâche à réaliser (par exemple le nombre de transactions par client et leur granularité, ou la taille d’une base de données d’images). Plus les connaissances requises pour effectuer une tâche sont vastes, plus la quantité de données requise l’est aussi. En contrepartie, plus les données sont abondantes, plus il est possible d’extraire des connaissances complexes menant à des algorithmes plus précis et plus performants. Parmi toutes les techniques d’apprentissage machine, l’apprentissage profond est pour l’instant celle qui permet le mieux d’extraire des connaissances complexes à partir de données volumineuses. Le big data ainsi que la croissance des capacités de calcul sont donc essentiels aux récentes percées en intelligence artificielle. Les répercussions de l’IA en entreprise Nombre de grandes entreprises dans le secteur technologique profitent déjà des avancées récentes en IA. Le PDG de Google, Sundar Pichai, promet d’ailleurs d’utiliser l’apprentissage automatique de manière systématique dans toute sa gamme de produits. Grâce à des acquisitions d’entreprises en démarrage et au recrutement ciblé, ces grandes entreprises, notamment Google, Facebook, Amazon, Microsoft, Twitter et Nuance, développent leur potentiel de recherche et de conception d’algorithmes et de systèmes d’intelligence artificielle. Toute personne qui interagit avec les technologies de ces sociétés bénéficie donc déjà de certains des progrès attribuables à l’intelligence artificielle. De plus, le transfert d’innovation en production industrielle peut être rapide : il a suffi de deux ans pour que les plus récents téléphones soient dotés des algorithmes de reconnaissance de la parole. Les algorithmes d’intelligence artificielle ne sont pas réservés aux grandes entreprises. Un grand nombre de petites entreprises proposent un produit phare basé sur l’intelligence artificielle. Ce n’était pas le cas il y a encore quelques années, alors que l’IA était souvent un outil secondaire utilisé pour améliorer un produit existant. En général, la collecte et le stockage de données sont des tâches à la portée d’entreprises de toute taille œuvrant dans des domaines variés. Un certain nombre d’avancées récentes en intelligence artificielle offrent la possibilité d’appliquer des algorithmes existants à ces données volumineuses pour en extraire des informations pertinentes. Il est aussi possible que des méthodes récentes améliorent la performance d’algorithmes prédictifs d’une génération précédente. L’automatisation de la prise de décision Les techniques d’intelligence artificielle nous permettent d’automatiser l’extraction de connaissances à des fins prédictives. Dans un deuxième temps, ces prédictions peuvent être utilisées pour prendre de meilleures décisions. Par exemple, en fonction des préférences prédites de clients, on peut déterminer la taille des commandes pour chaque article disponible et l’offre personnalisée destinée à chaque client. Il existe aussi des algorithmes qui automatisent les prédictions et les décisions. Les voitures sans conducteur sont

Read More
Food

Crafty Cook and Decorate all of our food dishes with love

Nmply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s andard dummy text ever since the 1500s, when an unknown printer took a galley of type andser crambled it to make a type specimen book. It has survived not only five centuries, but also the leap into electronic typesetting, remaining. It is a long established fact that a reader will be distracted by the readable content of a page when looking at its layout. The point of using Lorem Ipsum is that it has a more-or-less normal distrib ution of letters, as opposed to using ‘Content here, content here’, making it look like readabl aree English. Many desktop publishing packages and web page editors now use Lorem Ipsum s their default model text, and a search. Nmply dummy text of the printing and typesetting ustry. Lorem Ipsum has been the industry’s stydedy andard dummy text ever since the, when new wwan printer took a galley of type andsercrambled it toit make a type specimen book. It has survived anneyt only five centuries, but also theleap into electro nic typesetting, remaining. It is a long established fact that a reader will be dist racted by the readable content of a page when looking at its layout. Nmply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s, when an unknown printer took a galley of type and aerr crambled it to make a type specimen book. It has survived not only five centuries, but also they area leap into electronic typesetting, remaining. Simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s, when an unknown printer took a galley of type and aerr scrambled it to make a type specimen book. It has survived not only five centuries, but also they area leap into electronic typesetting, remaining. Nmply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s, when an unknown printer took a galley of type andse aerr crambled it to make a type specimen book. It has survived not only five centuries, but also they area leap into electronic typesetting, remaining. Simply dummy text of the printing and typesetting industry. Nmply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s when an unknown printer took a galley of type and scrambled it to make a type specimen book. It has survived not only five centuries, but also they area leap into electronic typesetting, remaining. Srem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s. Lorem Ipsum is simply . Srem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s. Lorem Ipsum is simply. Srem Ipsum is simply dummying text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s. Lorem Ipsum is simply. Srem Ipsum is simply dummied text of the printing and typesetting industry.

Read More