Bonsoir,
Que pensez-vous d'ouvrir un espace de discussions et de partages d'expérience sur l'utilisation des IA dans vos métiers ? Réels changements, bullshit, etc. Qui aimerait participer ?
Evelyne
Partages sur les IA
Règles du forum
Cette section est dédié a vos projets, descriptions et demandes d'aide.
Merci de limiter le nombre de sujet par projets.
Lorsqu'un sujet deviens long vous pouvez éditer le premier message pour maintenir à jour le descriptif et garder en lisibilité
Cette section est dédié a vos projets, descriptions et demandes d'aide.
Merci de limiter le nombre de sujet par projets.
Lorsqu'un sujet deviens long vous pouvez éditer le premier message pour maintenir à jour le descriptif et garder en lisibilité
Partages sur les IA
MCF associée en Info Com à l'université Paris Nanterre
- Eric
- Messages : 442
- Enregistré le : 09 mars 2017, 10:09
- Localisation : Electrolab
- Référent : Zone Élec
Re: Partages sur les IA
Bonjour jardine,
Pour info, il y a avait un petit article sur l'IA et le ML (Machine Learning) rédigé par Stuart Cording concernant l'embarqué (= cartes à µC) dans le précédent n° d'Elektor (n° 500, mars-avril 2023).
Les solutions qui fonctionnent nécessitent que l'apprentissage et la classification (le truc le plus consommateur de ressources, mais ce n'est à faire qu'une seule fois(1)) soient réalisés hors de la carte embarquée, soit sur un gros ordi/serveur local soit sur le Net/Cloud, notamment avec EON Tuner.
Pour que cela soit implémentable et opérationnel, faut quand même prévoir un µC sérieux (plusieurs centaines de MIPS) genre 'Portenta H7' (Cortex-M7 + Cortex-M4), ESP32, RP2040, surtout si la donnée d'entrée à traiter est de la vidéo et/ou du son.
Apparemment, il serait aussi possible de générer un fichier C++ pour l'implémenter dans d'autres plateformes. Ainsi, un Teensy 4.1 (Cortex-M7) qui aligne 600 MIPS, le futur Teensy 4.2 (annoncé autour du GIPS) ou encore un 'PIC32MZ EF' (415 DMIPS) devraient aussi être des candidats potentiels pour ce genre d'applications portables/mobiles.
Ça ouvre des perspectives.
(1) sauf évidemment, si le système doit s'auto-améliorer, mais là c'est vraiment une autre catégorie
Eric
... embarque tout le monde
Pour info, il y a avait un petit article sur l'IA et le ML (Machine Learning) rédigé par Stuart Cording concernant l'embarqué (= cartes à µC) dans le précédent n° d'Elektor (n° 500, mars-avril 2023).
Les solutions qui fonctionnent nécessitent que l'apprentissage et la classification (le truc le plus consommateur de ressources, mais ce n'est à faire qu'une seule fois(1)) soient réalisés hors de la carte embarquée, soit sur un gros ordi/serveur local soit sur le Net/Cloud, notamment avec EON Tuner.
Pour que cela soit implémentable et opérationnel, faut quand même prévoir un µC sérieux (plusieurs centaines de MIPS) genre 'Portenta H7' (Cortex-M7 + Cortex-M4), ESP32, RP2040, surtout si la donnée d'entrée à traiter est de la vidéo et/ou du son.
Apparemment, il serait aussi possible de générer un fichier C++ pour l'implémenter dans d'autres plateformes. Ainsi, un Teensy 4.1 (Cortex-M7) qui aligne 600 MIPS, le futur Teensy 4.2 (annoncé autour du GIPS) ou encore un 'PIC32MZ EF' (415 DMIPS) devraient aussi être des candidats potentiels pour ce genre d'applications portables/mobiles.
Ça ouvre des perspectives.
(1) sauf évidemment, si le système doit s'auto-améliorer, mais là c'est vraiment une autre catégorie
Eric
... embarque tout le monde
Re: Partages sur les IA
Si la discussion est réservée à l'utilisation de l'IA dans les métiers, les retraités sont disqualifiés d'office
Dans un domaine un peu particulier qui n'est pas professionnel (recherche sur la résistance dans la Vienne et sur un Capitaine en particulier), j'ai fait une requête sur ChatGPT, pour ne pas le nommer.
J'avais fait un préambule indiquant le contexte de la demande et le "rôle" de ChatGPT avant de formuler la demande. ChatGPT m'a raconté une histoire à (presque) dormir debout qui semble plus démontrer sa volonté à vouloir faire plaisir en répondant qu'à apporter des faits réels. En même temps, c'est un peu le principe des LLM.
En contrant, ineptie par ineptie, les éléments de sa réponse, j'ai fini avec pas grand chose de factuel mais, en revanche, une tonne d'excuses. On ne peut pas lui reprocher de ne pas être obséquieux...
ChatGPT a quand même réussi l'exploit de me donner 1992 comme année de décès de ce Capitaine sur qui portait la question. Je lui ai donc demandé la source de ses infos. "I do not have access to specific details about individuals who may have passed away in 1992. My training data only goes up until 2021". Aux dernières nouvelles, 1992 est antérieur à 2010 mais passons...
Je lui ai dit que ce Capitaine n'était pas décédé en 1992 (en fait il est décédé 20 ans plus tard mais ça je ne l'ai pas dit à ChatGPT), du coup ChatGPT me l'a
ressuscité (avec moult excuses) !
Je pense qu'avec un peu de persuasion j'aurais réussi à lui faire dire qu'il vivait heureux sur une île paradisiaque grâce au sirop Typhon...
Dans un autre domaine, je lui ai demandé de générer un programme APL2. Ben, oui, si on lui demande que des trucs courants et faciles ça ne sert à rien
Là, idem, ChatGPT a carrément détourné l'usage de certaines fonctions de base du langage pour "pisser du code" et a inséré du "If ... Then ...." en plein milieu du code APL2
!
J'ai failli tomber de ma chaise en lisant ça ! Même après lui avoir indiqué les erreurs il invente des trucs encore plus farfelus les uns que les autres et il n'a jamais réussi à sortir du code exploitable. Je me suis lassé et je m'en remets à moi-même pour pondre du code APL2...
En revanche, il y a des trucs qu'il fait plutôt assez bien :
analyse de textes,
proposer des reformulations en fonction de l'âge du lecteur par exemple,
faire des synthèses,
expliquer la différence entre "e = m.c^2" et "e^2 = m^2.c^4 + p^2.c^2",
etc.
À tout hasard, j'ai malgré tout récupéré Llama et tous les paramètres (de 7 à 65B). Ne manque qu'un PC avec 32+G de RAM.
Treblig

Dans un domaine un peu particulier qui n'est pas professionnel (recherche sur la résistance dans la Vienne et sur un Capitaine en particulier), j'ai fait une requête sur ChatGPT, pour ne pas le nommer.
J'avais fait un préambule indiquant le contexte de la demande et le "rôle" de ChatGPT avant de formuler la demande. ChatGPT m'a raconté une histoire à (presque) dormir debout qui semble plus démontrer sa volonté à vouloir faire plaisir en répondant qu'à apporter des faits réels. En même temps, c'est un peu le principe des LLM.
En contrant, ineptie par ineptie, les éléments de sa réponse, j'ai fini avec pas grand chose de factuel mais, en revanche, une tonne d'excuses. On ne peut pas lui reprocher de ne pas être obséquieux...
ChatGPT a quand même réussi l'exploit de me donner 1992 comme année de décès de ce Capitaine sur qui portait la question. Je lui ai donc demandé la source de ses infos. "I do not have access to specific details about individuals who may have passed away in 1992. My training data only goes up until 2021". Aux dernières nouvelles, 1992 est antérieur à 2010 mais passons...
Je lui ai dit que ce Capitaine n'était pas décédé en 1992 (en fait il est décédé 20 ans plus tard mais ça je ne l'ai pas dit à ChatGPT), du coup ChatGPT me l'a
ressuscité (avec moult excuses) !

Je pense qu'avec un peu de persuasion j'aurais réussi à lui faire dire qu'il vivait heureux sur une île paradisiaque grâce au sirop Typhon...
Dans un autre domaine, je lui ai demandé de générer un programme APL2. Ben, oui, si on lui demande que des trucs courants et faciles ça ne sert à rien

Là, idem, ChatGPT a carrément détourné l'usage de certaines fonctions de base du langage pour "pisser du code" et a inséré du "If ... Then ...." en plein milieu du code APL2

You are correct, my apologies for using "If" and "Else" statements, as they are not native to APL2, instead, traditional APL2 uses the branching operator ⌿ or ⍝ (comment) symbol to control the flow of execution.
J'ai failli tomber de ma chaise en lisant ça ! Même après lui avoir indiqué les erreurs il invente des trucs encore plus farfelus les uns que les autres et il n'a jamais réussi à sortir du code exploitable. Je me suis lassé et je m'en remets à moi-même pour pondre du code APL2...
En revanche, il y a des trucs qu'il fait plutôt assez bien :
analyse de textes,
proposer des reformulations en fonction de l'âge du lecteur par exemple,
faire des synthèses,
expliquer la différence entre "e = m.c^2" et "e^2 = m^2.c^4 + p^2.c^2",
etc.
À tout hasard, j'ai malgré tout récupéré Llama et tous les paramètres (de 7 à 65B). Ne manque qu'un PC avec 32+G de RAM.
Treblig
Retourner vers « Les Projets »
Qui est en ligne
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité