【Token趣闻】Pourquoi les frais d'IA sont-ils calculés en fonction des Tokens ? Explorons ce sujet ! — Apprendre l'IA à Petit Pas 040
Introduction
- Vous avez entendu dire que l’IA facture par Tokens ?
- Cela consomme beaucoup de Tokens
- Mon ordinateur a été allumé toute la nuit, ça a dû coûter beaucoup de Tokens, comme si une maison avait disparu ?
- Pourquoi utiliser des Tokens pour la facturation ?
- J’ai entendu dire que les Tokens sont facturés dans les deux sens
- Poser une question à l’IA coûte des Tokens, et la réponse aussi, n’est-ce pas un peu exagéré ?
- Alors l’IA ne va-t-elle pas parler à tort et à travers ?
- Les Tokens représentent-ils des mots ou des lettres ?
- Comment les caractères chinois sont-ils facturés ?
- Comment les caractères arabes sont-ils facturés ?
- Quelle est la signification des Tokens dans le processus d’informatisation des entreprises ?
- Dans l’informatisation traditionnelle, on crée une architecture et une base de données
- Pourquoi l’application de l’IA pose-t-elle des questions de Tokens ?
Cet article tentera de répondre à ces questions courantes concernant les Tokens. Lisez la suite.
Tout au long de l’histoire de l’informatique, des termes impressionnants ont fini par s’ancrer dans la vie quotidienne des gens. Par exemple, le terme “Prompt” est devenu un exemple typique, et il en va de même pour les Tokens, qui semblent maintenant bien hors de leur sphère initiale.
Est-ce que c’est un modèle de facturation jugé très bon par OpenAI et une multitude d’autres entreprises du secteur, ou y a-t-il d’autres raisons ?
Commençons par explorer son origine.
Dans un cadre d’entreprise, comprendre les Tokens est essentiel pour utiliser la technologie IA afin de réduire les coûts et améliorer l’efficacité. En termes simples, on peut les voir comme des blocs de construction qui permettent d’assembler notre application nécessaire, augmentant ainsi l’efficacité.
Bases des Tokens
Concepts de base des Tokens
Jetons un œil à la description officielle d’OpenAI sur les Tokens :
- 1 token ≈ 4 caractères anglais
- 1 token ≈ ¾ de mot
- 100 tokens ≈ 75 mots
ou - 1-2 phrases ≈ 30 tokens
- 1 paragraphe ≈ 100 tokens
- 1 500 mots ≈ 2048 tokens
Une fois lu, vous vous sentez perdu, n’est-ce pas ? En quoi cela diffère-t-il de la manière dont Kong Yiji savait combien de formes de “回” il y avait ? Voyons comment cela fonctionne :
Apprendre l'IA minutieusement, partager les connaissances joyeusement
Devinez combien de Tokens cela fait ? 6 mots, donc cela devrait faire 6 Tokens, non ? Pas si vite !
Dans le ChatGPT 4, cela représente 10 Tokens. Voyez les blocs de couleur, la ponctuation est comptée séparément, Joyfully
est scindé en Joy
et fully
.
De la programmation aux conversations : la nécessité d’introduire les Tokens
Le langage de base des ordinateurs est constitué de codes binaires composés de 0 et 1, qui est la forme la plus élémentaire de représentation pour tous les programmes et données. Que ce soit dans des langages de programmation avancés comme Python et Java, ou dans divers fichiers multimédias tels que des images et vidéos, tout sera converti en ce langage machine. Dans les sciences informatiques traditionnelles, les experts ont fait de leur mieux pour abstraire la complexité du monde réel par des types de données définis, comme les chaînes de caractères (une série de lettres) et les entiers (nombres), pour traiter les informations. Cette méthode est très efficace pour des données structurées comme les calculs mathématiques ou les requêtes de bases de données.
Cependant, avec l’évolution technologique et l’augmentation des besoins, nous souhaitons que les ordinateurs ne traitent pas seulement des chiffres et des codes, mais qu’ils comprennent et traitent également le langage naturel, soit notre langage quotidien. C’est ici qu’intervient le domaine du traitement du langage naturel (NLP, Natural Language Processing), qui vise à permettre aux ordinateurs de comprendre, interpréter et générer le langage humain.
Étant donné les caractéristiques du langage naturel, notamment sa diversité, sa dépendance au contexte et son ambiguïté, notre problème n’est plus simplement de résoudre des équations comme 1+1=2
. Nous devons maintenant enseigner aux ordinateurs à comprendre des phrases telles que “Aujourd’hui, c’est vendredi, que faire pendant le week-end ? Rester à la maison pour apprendre l’IA peut-être ?” et à analyser l’émotion ou à les traduire en d’autres langues. Dans ce cadre, les types de données traditionnels ne suffisent plus.
C’est pourquoi le concept de Tokens devient crucial. Tokenisation est le processus de décomposition des données textuelles complexes en unités plus petites et plus faciles à traiter par les ordinateurs, telles que des mots, des phrases ou des signes de ponctuation. Ainsi, les ordinateurs peuvent traiter le langage plus efficacement, extrayant des significations des textes plutôt que de simplement compter les caractères.
De la certitude à l’ambiguïté : La programmation traditionnelle traite des données précises et prévisibles, tandis que le NLP implique l’interprétation de langages polysemous et contextuels.
Du structuré à l’non structuré : Contrairement aux bases de données structurées ou aux algorithmes, le NLP traite des textes de langage naturel fluides et libres.
Qu’est-ce qu’un Token ? Pourquoi transformer le texte en Tokens ?
Imaginez que dans cette vague d’IA générative, un des cas d’utilisation typique est le résumé rapide. Nous n’avons pas besoin de lire mot à mot pour comprendre les informations clés. Les Tokens jouent un rôle crucial en aidant l’ordinateur à “comprendre” et à traiter un grand volume de texte.
Qu’est-ce qu’un Token ?
En traitement du langage naturel, un Token se réfère généralement à des segments significatifs d’un texte. Ces segments peuvent être des mots, des phrases ou des signes de ponctuation. Comme dans l’exemple ci-dessus.
Pourquoi convertir en Tokens ?
Transformer un texte en Tokens, c’est comme décomposer un rapport commercial complexe en parties clés ou résumer un email en points essentiels. Cette décomposition permet aux ordinateurs de traiter et d’analyser le langage plus efficacement, facilitant ainsi des tâches telles que la recherche d’informations clés, la traduction automatique ou l’analyse sentimentale.
Prenons un exemple, une personne qui a ouvert une chaîne de magasins sur Meituan souhaite analyser les avis des clients pour améliorer son produit. Décomposer ces avis en Tokens pourrait aider à identifier les problèmes courants ou les points négatifs.
Bien que cela semble indiquer que les Tokens sont des mots, quelle est la réalité ?
La différence et la relation entre Tokens, caractères et mots.
Définition | Caractéristiques | Exemple | |
---|---|---|---|
Caractère | L’élément de base constituant le texte | N’exprime pas toujours un sens complet, peut former des mots avec d’autres caractères. | happy |
Mot | Formé par des caractères, capable d’exprimer un sens | Unité de base pour transmettre l’information, plus riche qu’un simple caractère. | I’m happy |
Token | Correspond généralement à un mot, mais plus flexible, peut être une phrase, un signe de ponctuation, ou même une racine, un préfixe, etc. | La définition d’un Token dépend de son utilisation, comme l’analyse de texte, la traduction automatique, etc. | I , 'm , happy |
À ce stade, nous comprenons que cela repose en grande partie sur notre compréhension du langage.
Bien que les caractères, les mots et les Tokens diffèrent techniquement, ils sont étroitement liés dans le traitement du texte. Les caractères constituent la base des mots, et les mots sont les éléments formant les Tokens. Dans la pratique, l’identification et l’utilisation des Tokens dépendent de notre compréhension des caractères et des mots.
Par exemple, si nous devons analyser un rapport sur les tendances du marché, grâce à la Tokenisation, nous pouvons rapidement identifier des mots-clés (comme “croissance”, “risque”, “opportunité”, etc.), aidant les dirigeants à saisir rapidement l’essentiel du rapport.
En résumé, les Tokens sont un moyen d’aider les ordinateurs à traiter et à “comprendre” le texte, rendant le traitement automatisé des textes possible, permettant ainsi aux entreprises d’utiliser plus efficacement les informations linguistiques dans leur prise de décision basée sur les données.
Alors, comment les Tokens sont-ils générés et traités ? Cela nous demande de sortir des schémas de programmation traditionnels.
Génération et traitement des Tokens
Comment les Tokens sont-ils générés ? Processus de transformation du texte en Tokens.
graph LR A[Processus de traitement du texte] A1[Prétraitement] A2[Segmentation] A3[Tokenisation] A4[Post-traitement] A --> A1 A --> A2 A --> A3 A --> A4 A1 --> B1[Suppression des caractères non pertinents] B1 --> B1a[Comme le code HTML] A1 --> B2[Standardisation du texte] B2 --> B2a[Uniformiser les majuscules/minuscules] B2 --> B2b[Conversion de caractères traditionnels en simplifiés] A1 --> B3[Suppression des mots vides] B3 --> B3a[Comme "的", "了", etc.] A2 --> C1[Segmentation en anglais] C1 --> C1a[Basé sur les espaces et la ponctuation] A2 --> C2[Segmentation en chinois] C2 --> C2a[Dépend des algorithmes pour reconnaître les limites des mots] A3 --> D1[Fusion de vocabulaire] D1 --> D1a[Exemples de noms propres comme "New York"] D1 --> D2[Identification de phrases ou d'expressions figées] D1 --> D3[Considérer les signes de ponctuation comme des Tokens à part entière] A4 --> E1[Étiquetage des parties du discours] A4 --> E2[Étiquetage des rôles sémantiques]
Chaque modèle peut avoir des étapes de traitement différentes. Pour faciliter la compréhension, quelques étapes sont présentées ici. Dans le cadre de l’exploration de la valeur des données à partir de l’informatisation des entreprises, il est crucial de considérer la priorité de la valeur des données tout en évaluant les coûts de traitement des données.
Prenons un exemple.
Génération de Tokens
Segmentation
Segmentation, comme son nom l’indique, consiste à extraire les mots d’une phrase, facilitant ainsi le traitement ultérieur. Nous avons comme une chaîne de perles et devons identifier où couper.
Alors, comment faire la segmentation ? Une méthode intuitive serait de la comparer à un dictionnaire. Ce fut une des méthodes utilisées dans le passé. Une fois segmenté, cela pourrait ressembler à ceci :
1 | En / 2024 / , / la / technologie / IA / évolue / rapidement / . / Par / exemple / , / OpenAI / a / publié / le / modèle / GPT-4o / , / qui / est / non seulement / puissant / , / mais / a / également / fait / des / progrès / révolutionnaires / dans / le / traitement / du / langage naturel / . / Cependant / , / nous / devons / supprimer / certains / mots / vides / courants / qui / n'apportent / pas / d'informations / , / comme / " " / , / " " / , etc. / Pour / plus / de / détails / sur / ces / technologies / , / veuillez / visiter / notre / site officiel. |
Bien sûr, dans la réalité, la segmentation comporte beaucoup plus d’aspects. En résumé, il existe plusieurs approches :
Détermination des limites des mots :
- Pour les langues comme l’anglais qui utilisent des espaces pour séparer les mots, c’est relativement simple. Comme en anglais, nous pouvons facilement détecter où un mot se termine et un autre commence grâce à l’espace.
- Pour le chinois, c’est plus complexe car il n’y a pas d’espaces visibles dans l’écriture. Par conséquent, nous devons utiliser d’autres méthodes pour déterminer quels caractères forment un ensemble sémantique.
Utiliser un dictionnaire et des règles :
- Méthode basée sur le dictionnaire : Semblable à la consultation d’un dictionnaire, nous recherchons des mots dans une grande liste (dictionnaire) pour les faire correspondre au texte. Cette méthode est simple, mais elle a ses limites, car les nouveaux mots ou les mots rares peuvent ne pas y figurer.
- Méthodes basées sur des règles : Ces méthodes utilisent des règles spécifiques pour définir la relation entre les caractères, utilisant la grammaire et le contexte pour déterminer s’ils doivent former un mot.
Méthodes statistiques et d’apprentissage :
- Utilisation de données statistiques pour apprendre quels caractères ou mots apparaissent ensemble. Cette approche implique d’analyser de grands corpus textuels et d’apprendre à prédire les limites des mots.
Méthodes mixtes :
- En pratique, plusieurs méthodes sont souvent combinées pour améliorer la précision et la pertinence de la segmentation.
En résumé :
- Anglais : segmentation basée sur les espaces et la ponctuation.
- Chinois : algorithmes de reconnaissance des limites des mots.
L’outil de segmentation chinois efficace appelé Jieba n’a pas été mis à jour depuis 4 ans.
La logique traditionnelle de segmentation ne prend pas souvent en compte le contexte dans lequel les mots sont utilisés. Voyons un exemple.
1 | Pourquoi / tu / appelles / toujours |
Pourquoi
est un mot, alors que 你为何总打call
peut être interprété comme une personne. Cette belle ambiguïté est véritablement fascinante !
Après la segmentation, nous procédons à la Tokenisation.
Tokenisation
La Tokenisation est une étape cruciale dans le traitement des données textuelles, qui affine et traite les unités de texte afin de mieux correspondre aux exigences de traitement et d’analyse ultérieures. Utilisons votre texte pour illustrer précisément le processus de Tokenisation.
Fusion des noms propres et phrases spécifiques :
- Considérer “OpenAI” et “GPT-4o” comme des Tokens distincts, car ce sont des noms propres avec un sens indépendant.
- “Langage naturel” en tant qu’expression technique doit également être traité comme un Token.
Ponctuation comme Tokens indépendants :
- Des signes de ponctuation tels que des virgules (,), des points (。) et des guillemets (“ ”) doivent être considérés comme des Tokens indépendants, car ils jouent un rôle grammatical et structurel dans le texte.
Gestion des espaces vides :
- Les espaces vides présents dans des guillemets vides (par exemple, ceux dans “ ”) doivent être considérés comme des Tokens vides ou inutiles à supprimer.
Résultat après Tokenisation
1 | En / 2024 / , / la / technologie / IA / évolue / rapidement / . / Par / exemple / , / OpenAI / a / publié / le / modèle / GPT-4o / , / qui / est / non seulement / puissant / , / mais / a / également / fait / des / progrès / révolutionnaires / dans / le / traitement / du / langage naturel / . / Cependant / , / nous / devons / supprimer / certains / mots / vides / qui / n'apportent / pas / d'informations / , / comme / " " / , / " " / , etc. / Pour / plus / de / détails / sur / ces / technologies / , / veuillez / visiter / notre / site officiel. |
Ce résultat est plus compact et significatif, et convient mieux aux tâches NLP ultérieures telles que l’analyse de texte et l’analyse sentimentale. Grâce à une Tokenisation appropriée, nous pouvons capturer plus efficacement les caractéristiques sémantiques et structurelles du texte, jetant les bases d’une compréhension approfondie et d’une analyse textuelle.
Il convient de noter que la Tokenisation est étroitement liée à la vectorisation, mais ce sera abordé plus tard.
Le rôle du vocabulaire dans la génération de Tokens.
À partir des analyses précédentes, nous comprenons que le vocabulaire joue un rôle majeur dans la génération de Tokens.
Identification des limites, assurance de la cohérence, compression d’informations, augmentation de la vitesse de traitement, maintien de la sémantique :
En maintenant et en mettant à jour le vocabulaire, il est possible d’optimiser en continu le processus de génération des Tokens, s’adaptant ainsi aux évolutions linguistiques et à l’apparition de nouveaux mots, augmentant ainsi l’adaptabilité et la précision de l’ensemble du système.
Gestion des caractères spéciaux (comme ponctuation et espaces).
La gestion des caractères spéciaux lors de la génération des Tokens est une question à prendre en compte avec attention. Les caractères spéciaux tels que ponctuation et espaces ont souvent une fonction structurelle et sémantique importante dans le texte :
Ponctuation : Les signes de ponctuation sont souvent utilisés pour indiquer la structure des phrases. Par exemple, le point (.) à la fin d’une phrase, les virgules (,) pour séparer les éléments d’une liste ou les guillemets (“ ”) pour marquer les citations directes. En Tokenisation, la ponctuation est généralement considérée comme des Tokens distincts, car elle peut influencer le ton et la structure de la phrase, et parfois modifier le sens de la phrase.
Espaces : Dans les langues utilisant des lettres latines, les espaces sont le principal moyen de séparer les mots. Lors de la Tokenisation, l’espace n’est généralement pas conservé comme Token, mais sa présence est essentielle pour déterminer les limites des mots. Cependant, dans certains textes formatés, les espaces peuvent également être utilisés à des fins esthétiques, nécessitant un traitement contextuel.
Caractères de formatage spéciaux : Les tabulations (Tab), les sauts de ligne (\n), etc., jouent également un rôle dans le contrôle du format du texte. Selon le cas, ces caractères peuvent devoir être ignorés ou traités de manière spécifique lors du traitement de fichiers texte brut.
Une gestion appropriée de ces caractères spéciaux est essentielle pour garantir que le texte soit correctement Tokenisé. Les stratégies de traitement de ces caractères influencent directement les résultats d’analyse textuelle et d’application. Lors de la conception de systèmes NLP, il est nécessaire d’examiner attentivement la logique de traitement de ces caractères pour s’adapter aux exigences variées des applications et aux caractéristiques des données.
À partir du contenu ci-dessus, nous pouvons également déterminer qu’il existe certaines différences dans la gestion des Tokens selon les langues, ces différences aident à mieux comprendre.
Diversité et adaptabilité des Tokens
Méthodes de Tokenisation dans différentes langues
Les différences dans les structures et la grammaire des langues exigent que les méthodes de Tokenisation soient hautement adaptables et flexibles. Par exemple :
Anglais et autres langues occidentales : Ces langues utilisent généralement des espaces comme séparateurs entre les mots, rendant la Tokenisation relativement simple. Par exemple, la phrase “The quick brown fox” peut être aisément divisée en “The”, “quick”, “brown”, “fox”.
Chinois, japonais et coréen : Dans ces langues, il n’y a pas de séparateurs clairement définis entre les mots, rendant la Tokenisation plus complexe. Pour le chinois, on peut avoir besoin de recourir à un dictionnaire ou à un modèle statistique pour reconnaître quelles combinaisons de caractères forment des mots significatifs. Par exemple, “快速发展” devrait être reconnu comme un Token unique et non comme “快速” et “发展” séparés.
Arabe et hébreu : Ces langues scriptées de droite à gauche exigent que la Tokenisation prenne non seulement en compte la direction d’écriture, mais aussi la gestion des lettres collées, ce qui impose des exigences particulières aux algorithmes de Tokenisation.
Comprendre ces différences aide à gérer efficacement les données multilingues dans les affaires mondiales, en optimisant les interfaces utilisateurs multilingues et la création de contenu pour améliorer l’expérience utilisateur et l’expansion du marché.
Comment la taille et la granularité des Tokens sont-elles déterminées ?
La taille et la granularité des Tokens dépendent des besoins spécifiques de l’application et du niveau de traitement prévu :
Tokens à granularité fine : Souvent utilisés dans les scénarios nécessitant une compréhension approfondie du langage, comme l’analyse sentimentale ou la recherche sémantique. Par exemple, décomposer des mots composés peut aider le modèle à mieux capturer de subtiles variations de signification.
Tokens à granularité grossière : Convenant à des scénarios où un traitement rapide de grandes quantités de données textuelles est requis, comme la classification de documents ou l’extraction initiale de mots-clés. Une Tokenisation grossière réduit la complexité et les besoins de calcul.
Déterminer la granularité des Tokens implique souvent de faire des compromis entre la vitesse de traitement et la précision sémantique. Comprendre cela aide les dirigeants à prendre des décisions éclairées lors de la mise en œuvre de projets IA, en choisissant les technologies et outils appropriés pour répondre aux besoins réels du business.
Comprendre les méthodes de Tokenisation dans différentes langues et les principes déterminants de taille et de granularité des Tokens peut vous aider à :
- Mieux évaluer les projets IA : Comprendre la complexité et les défis de la Tokenisation contribue à prendre des décisions mieux informées lors de l’achat ou du développement de solutions IA connexes.
- Optimiser les opérations mondiales : La capacité d’adapter la Tokenisation dans un environnement multilingue est cruciale pour réussir dans les affaires mondiales, améliorant la communication interculturelle et l’interaction utilisateur.
- Accroître l’efficacité du traitement des données : Choisir la bonne granularité des Tokens peut optimiser l’efficacité et les coûts de traitement des données tout en satisfaisant les exigences commerciales.
Alors, quel impact les Tokens ont-ils sur les performances des modèles ?
Tokens et performances des modèles IA
La stratégie de Token peut influencer, dans une certaine mesure, l’espace de contexte des grands modèles. Lorsqu’on interagit avec l’IA, si ces échanges sont trop longs, l’IA risque d’oublier des éléments précédents. On peut alors comprendre cela comme une limite en amont. Voici les limites du contexte des modèles linguistiques de l’année dernière.
src: https://s10251.pcdn.co/pdf/2023-Alan-D-Thompson-2023-Context-Windows-Rev-0.pdf
C’est une donnée de l’année dernière, voici le graphique de Gemini.
src : https://beebom.com/gemini-1-5-pro-announced/
La société Kimi peut traiter des fichiers PDF de 100 Mo, et la taille de l’espace de contexte est déjà devenue un point de marketing essentiel. Quel en est l’impact ?
Selon les lois de mise à l’échelle actuelles, différentes stratégies de Token appartiennent au cadre des algorithmes sous-jacents, ce qui signifie que l’optimisation des stratégies de Token est naturellement moins efficace que l’ajout de GPU.
L’impact des Tokens sur les performances des modèles
sequenceDiagram participant U as Utilisateur participant I as Traitement de l'entrée participant M as Calcul du modèle participant S as Système de stockage U->>+I: Historique du dialogue soumis (nombre de Tokens) I->>+M: Analyse des Tokens et préparation des données M->>+M: Calcul de l'auto-attention Note over M: Calculer la relation entre chaque Token et les autres Tokens M->>+S: Demande de mémoire supplémentaire Note over S: Allocation de mémoire accrue selon le nombre de Tokens S-->>-M: Confirmation de l'allocation de mémoire M->>M: Poursuite du calcul de la réponse M-->>-I: Retour de la réponse générée I-->>-U: Affichage de la réponse
Comment le nombre de Tokens influence-t-il la complexité et l’occupation mémoire du modèle ?
Dans les modèles d’IA générative tels que GPT-4 ou d’autres modèles basés sur Transformer, le nombre de Tokens est directement lié à la complexité de calcul et à l’occupation mémoire du modèle. Chaque Token ajouté signifie que le modèle doit traiter plus de points de données, ce qui augmente non seulement la charge de calcul lors de l’entraînement et de l’inférence, mais aussi les besoins mémoires. Par exemple, lors de l’entraînement d’un modèle linguistique, il doit stocker et calculer les relations de chaque Token avec tous les autres Tokens, ce qui est particulièrement évident dans le mécanisme d’auto-attention du modèle.
Exemple illustratif : Considérons un projet de chatbot génératif. Si l’historique des dialogues est trop long (c’est-à-dire que le nombre de Tokens est élevé), alors la génération de réponses peut devenir lente et nécessiter plus de ressources de calcul. Par exemple, un historique de dialogue contenant des milliers de Tokens pourrait entraîner une diminution notable de la vitesse de traitement, notamment sur des appareils aux ressources limitées.
Une compréhension intuitive de cela est que ces grandes entreprises de modèles choisissent de ne pas augmenter leur capacité pour des raisons très concrètes. Est-ce que plus de volume signifie nécessairement une meilleure performance ?
Plus de Tokens signifie-t-il toujours de meilleures performances du modèle ?
Ce n’est pas nécessairement le cas. Dans l’IA générative, un nombre approprié de Tokens peut aider le modèle à mieux capter et comprendre le contexte, améliorant ainsi la pertinence et l’exactitude du contenu généré. Cependant, un excès de Tokens peut introduire des informations superflues, diminuant l’efficacité et la qualité des sorties du modèle.
Exemple illustratif : Dans un système IA générant des rapports de marché, une segmentation précise des Tokens peut s’assurer que les informations importantes sont mises en exergue, plutôt que noyées dans un amas de détails non nécessaire. Par exemple, le système ayant besoin de générer un résumé concis à partir d’une grande quantité de nouvelles financières, une surabondance de Tokens peut mener à un rapport désordonné, difficile à comprendre.
Actuellement, les entreprises de modèles de grande taille pourraient adopter des stratégies similaires à des services de cloud pour le traitement de fichiers volumineux. Si A a téléchargé un fichier, lorsque B télécharge, il pourrait ne pas le traiter à nouveau, mais simplement utiliser le résultat du traitement effectué par A. Au fil de l’accumulation de contenu, cela crée un avantage produit propre.
Optimisation de l’utilisation des Tokens
Comment trouver un équilibre entre le nombre de Tokens et les performances du modèle ?
La stratégie des Tokens ici concerne principalement la stratégie que nous, utilisateurs ordinaires, adoptons lors de la rédaction de Prompt, cherchant à obtenir des résultats conformes à nos attentes.
Trouver le point d’équilibre entre le nombre de Tokens et les performances du modèle est crucial pour garantir que les modèles IA génératifs soient à la fois efficaces et précis. Cela nécessite souvent des ajustements par expérimentation, ainsi que l’utilisation de techniques avancées d’optimisation des modèles.
Exemple illustratif : Dans un système de génération de contenu automatique, comment équilibrer l’utilisation des Tokens représente un défi typique. Le système peut nécessiter d’extraire des informations clés d’un texte long pour générer un résumé. Dans ce cas, choisir un nombre approprié de Tokens afin de conserver suffisamment d’informations tout en évitant des structures de modèles excessivement complexes est crucial.
Relation entre Tokens et fenêtres de contexte, et leur impact sur la qualité de génération de texte.
Dans l’IA générative, la configuration des Tokens et de la fenêtre de contexte influence directement la cohérence et la logique des textes générés. Plus la fenêtre de contexte est grande, plus le modèle peut considérer d’informations historiques lors de la génération de texte, menant à des contenus plus cohérents et naturels.
Exemple illustratif : Supposons que nous utilisons un modèle IA pour générer des articles de blog techniques. Si la fenêtre de contexte est trop petite, le modèle peut ne pas relier efficacement les différentes parties de l’article, entraînant des ruptures logiques dans le contenu généré. En optimisant l’utilisation des Tokens et en ajustant la taille de la fenêtre de contexte, on peut sensiblement augmenter la qualité et la lisibilité de l’article.
Passons maintenant au sujet que nous avons commencé à aborder, qui est l’expérience utilisateur du système applicatif, mais qui doit également prendre en compte les coûts.
Applications commerciales des Tokens et modèles de facturation
Commençons par un tableau sur les situations de facturation des grands modèles
En général, l’utilisation de modèles linguistiques a des mises en œuvre basées sur les échanges sur le web ou via des appels API. L’utilisation d’OpenAI sur le web est essentiellement standardisée, à 20 dollars par mois. Cependant, les appels API ne sont pas aussi simples, et les coûts peuvent rapidement s’accumuler.
C’est un jeu du chat et de la souris ; même avec ChatGPT Plus, il y a une limite de nombre de tours dans une période de trois heures. Beaucoup de gens ont tenté d’utiliser des techniques comme les spiders pour accéder à ChatGPT sans passer par l’API, mais le code open-source a généralement été supprimé !
Autrefois, les systèmes de télécommunications facturaient selon un modèle horaire, qui était également très profitable, jusqu’à ce qu’un modèle d’abonnement mensuel soit introduit. Le modèle de facturation par Tokens ressemble également à cette logique.
Logique de facturation par Tokens
Pourquoi utiliser la facturation par Tokens ? Sa légitimité et son modèle commercial.
Le modèle de facturation par Tokens est très courant dans les services d’IA, notamment pour l’utilisation de modèles de langage tels qu’OpenAI. Ce modèle de tarification est basé sur l’utilisation réelle des services par les utilisateurs, c’est-à-dire le nombre de Tokens traités dans chaque requête.
Légitimité :
La légitimité du modèle de facturation par Tokens réside dans sa capacité à refléter avec précision la consommation réelle de ressources par les utilisateurs. Chaque Token représente une unité d’information que le modèle doit traiter, davantage de Tokens signifie une consommation accrue des ressources de calcul. Par conséquent, cette approche permet de s’assurer que les utilisateurs paient selon leur consommation effective, tout en les incitant à optimiser leurs entrées, évitant ainsi les gaspillages inutiles.
Modèle commercial :
D’un point de vue commercial, le modèle de facturation par Tokens offre aux fournisseurs de services IA un cadre de tarification flexible et équitable. Il permet aux fournisseurs d’ajuster les niveaux de prix en fonction de la charge du système et des coûts d’exploitation, attirant ainsi une base de clients diversifiée allant des petits développeurs aux grandes entreprises.
Comparaison de la facturation par Tokens avec d’autres méthodes (comme par mots, caractères ou temps)
Comparé à d’autres approches de facturation courantes, le modèle de facturation par Tokens présente des avantages et des limites distinctifs :
Facturation par mots et caractères : Ces méthodes de facturation sont simples et claires, ce qui facilite leur compréhension et leur estimation. Cependant, elles ne tiennent généralement pas compte de la complexité du traitement et de l’utilisation effective des ressources de calcul. Par exemple, traiter une phrase longue avec un vocabulaire simple peut être moins complexe qu’une phrase contenant des termes techniques, mais le coût pourrait être plus élevé selon le nombre de mots.
Facturation basée sur le temps : Les modèles de facturation temporelle (comme par minute ou par heure) conviennent pour des services continus tels que le traitement de flux de données ou l’apprentissage en ligne. Cependant, pour des tâches brèves basées sur des requêtes, ce modèle pourrait créer des iniquités ou des imprécisions sur le montant facturé.
graph TD; A[Facturation par Tokens] -->|Réflecte la consommation réelle des ressources| B[Répartition équitable des ressources]; A -->|Optimise l'efficacité des entrées| C[Encourage la simplification des entrées]; D[Facturation par mots/caractères] -->|Simple et clair| E[Facile à comprendre et à budgétiser]; D -->|Ne prend pas en compte la complexité| F[Peut entraîner des inexactitudes de facturation]; G[Facturation fondée sur le temps] -->|Convient aux services continus| H[Traitement de données en flux/apprentissage en ligne]; G -->|Pas adapté pour les tâches brèves| I[Peut créer des iniquités en matière de facturation];
La facturation par Tokens constitue une mesure plus détaillée qui peut refléter plus équitablement l’utilisation réelle des ressources par les utilisateurs.
En regardant rapidement les coûts des grandes entreprises de modèles, on peut voir que ceux-ci incluent :
- Coûts de recherche et développement (ressources humaines + expérimentations)
- Coûts d’entraînement (ressources computationnelles + traitement de données)
- Coûts de déploiement (infrastructure + frais de stockage)
- Coûts de maintenance et de mise à jour
- Coûts de conformité éthique (sécurité des données, conformité)
Tous ces coûts, supposés être supportés par les Tokens, semblent peu réalistes ; seuls les professionnels du secteur peuvent évaluer la situation réelle. Peut-être que c’est le moyen d’évaluation le plus approprié à ce stade.
Impact réel de la facturation par Tokens
Impact des méthodes de facturation sur les utilisateurs et les développeurs.
Le modèle de facturation par Tokens signifie que les utilisateurs devront gérer soigneusement leurs requêtes d’API afin de contrôler leurs coûts. Les développeurs doivent concevoir des requêtes efficaces pour réduire l’utilisation redondante des Tokens et maximiser la valeur de chaque demande. Cette méthode de facturation encourage les développeurs à optimiser les flux d’entrée et de traitement, mais peut également accroître la complexité du développement et les efforts d’optimisation en amont.
Pour les fournisseurs, la facturation par Tokens aide à équilibrer la charge des serveurs, à prévoir les revenus et à optimiser l’allocation des ressources. C’est aussi un mécanisme de feedback pour l’optimisation des produits et l’ajustement des stratégies de tarification, permettant aux fournisseurs de mieux répondre aux demandes du marché.
Comment optimiser l’utilisation des Tokens pour réduire les coûts ?
Optimiser l’utilisation des Tokens est essentiel pour le contrôle des coûts. Cela peut être réalisé par les méthodes suivantes :
- Rationaliser les données d’entrée : Avant d’envoyer une demande, éliminer les textes non nécessaires et les informations redondantes, en conservant seulement les informations clés.
- Utiliser des requêtes efficacement conçues : Concevoir des requêtes bien pensées pour éviter des demandes trop complexes ou enchaînées.
- Utiliser des stratégies de mise en cache : Pour les demandes courantes ou répétées, utiliser les résultats mis en cache pour réduire les requêtes vers les services en arrière-plan.
- Surveiller et analyser : Analyser régulièrement les données de consommation des Tokens pour identifier les points d’optimisation et ajuster les stratégies pour réduire les gaspillages.
Ces méthodes permettent de non seulement réduire les coûts, mais également d’améliorer la rapidité de réponse du système et la satisfaction utilisateur, créant ainsi un avantage sur le marché concurrentiel.
Valeur commerciale des Tokens et exemples d’applications
Usage pratique des Tokens dans les affaires
Dans les opérations d’entreprise, l’utilisation de la technologie de Tokenisation peut considérablement améliorer l’efficacité du traitement des données et la qualité des décisions. Pour les dirigeants non techniques, comprendre l’utilisation des Tokens peut les aider à mieux évaluer les investissements technologiques et à promouvoir l’innovation commerciale.
graph LR; A[Perspective technique : Rôle des Tokens dans le traitement du langage naturel] B[Perspective commerciale : Rôle des Tokens dans l'amélioration de la valeur d'entreprise] A --> A1[Extraction d'informations\nExtraction rapide des informations clés] A --> A2[Analyse sentimentale\nIdentification des émotions des clients] A --> A3[Récapitulatif automatique\nGénération de résumés documentaires] B --> B1[Amélioration de l'interaction client\nService clientèle 24/7] B --> B2[Analyse de marché\nObtention d'informations tendances] B --> B3[Recommandation personnalisée\nAugmentation des transactions] style A fill:#8ecae6,stroke:#333,stroke-width:4px style B fill:#90be6d,stroke:#333,stroke-width:4px style A1 fill:#219ebc,stroke:#333,stroke-width:2px style A2 fill:#219ebc,stroke:#333,stroke-width:2px style A3 fill:#219ebc,stroke:#333,stroke-width:2px style B1 fill:#ffb703,stroke:#333,stroke-width:2px style B2 fill:#ffb703,stroke:#333,stroke-width:2px style B3 fill:#ffb703,stroke:#333,stroke-width:2px
Perspective technique : Rôle des Tokens dans le traitement du langage naturel
La Tokenisation est le processus technique qui décompose des données textuelles complexes en unités gérables, permettant aux systèmes IA d’effectuer une analyse et un traitement efficaces des données. Ce processus est particulièrement clé dans le traitement du langage naturel (NLP), car il permet aux machines de “comprendre” le langage humain, en exécutant des tâches telles que :
- Extraction d’informations : La Tokenisation aide à extraire rapidement des informations importantes de grands volumes de texte, par exemple, identifier les clauses pertinentes dans des documents juridiques.
- Analyse sentimentale : En analysant les Tokens des retours clients, les entreprises peuvent identifier les tendances émotionnelles pour ajuster leurs produits ou services.
- Récapitulatif automatique : Les technologies de Tokenisation sont capables de générer automatiquement des résumés de documents, augmentant l’efficacité des travailleurs de la connaissance.
Perspective commerciale : Rôle des Tokens dans la valeur entrepreneuriale
D’un point de vue commercial, les Tokens n’améliorent pas seulement l’efficacité des opérations, mais ouvrent également la voie à de nouveaux modèles d’affaires et de revenus :
- Amélioration de l’interaction client : Des robots de service à la clientèle basés sur la Tokenisation peuvent offrir des services 24/7, augmentant la satisfaction client tout en réduisant les coûts de service.
- Analyse de marché : Le traitement basé sur les Tokens peut aider les entreprises à extraire rapidement des informations tendances de rapports de marché pour guider les décisions stratégiques.
- Recommandation personnalisée : Dans les plateformes e-commerce, la technologie des Tokens peut analyser l’historique d’achats et de navigation des utilisateurs pour fournir des recommandations personnalisées de produits, augmentant ainsi le taux de conversion des ventes.
Analyse de cas concrets
Chatbot de service client
Un exemple classique d’application est un chatbot de service client. Par exemple, une grande entreprise de télécommunications a déployé un chatbot basé sur la Tokenisation pour traiter les requêtes des utilisateurs, comme les problèmes de facturation ou d’interruption de service. Le robot analyse rapidement les questions posées par les utilisateurs (déjà Tokenisées), fournissant ainsi des réponses précises ou redirigeant les problèmes vers le service approprié.
Système de recommandation de contenu
Dans les industries des médias et du divertissement, les systèmes de recommandation de contenu utilisent la technologie de Tokenisation pour analyser les habitudes de visionnage ou de lecture des utilisateurs, recommandant des films, livres ou articles que l’utilisateur pourrait apprécier. Par exemple, le système de recommandation de Netflix analyse les descriptions des programmes déjà visionnés par l’utilisateur, afin de prédire d’autres programmes susceptibles de lui plaire.
Valeur commerciale des Tokens et perspectives d’application
Dans les applications d’entreprise, comprendre et utiliser efficacement les Tokens est essentiel pour le succès des projets IA. Saisir la valeur commerciale des Tokens et ses défis est particulièrement important pour formuler des stratégies et diriger l’innovation technologique.
Applications commerciales des Tokens
Perspective technique : Rôle des Tokens
Les Tokens agissent dans le traitement du langage naturel (NLP), permettant aux informations textuelles d’être traitées efficacement par les systèmes IA. En d’autres termes, la Tokenisation est le processus qui décompose de longs textes en unités de traitement gérables, fournissant une base pour les modèles d’apprentissage automatique.
- Traitement des données : Dans le traitement des requêtes clients, l’analyse des retours de marché ou la gestion d’une multitude de documents, la Tokenisation rend ces données textuelles complexes plus faciles à gérer et à analyser.
- Amélioration de l’efficacité : Grâce à la Tokenisation, les modèles IA peuvent identifier rapidement des informations clés, accélérant ainsi le processus décisionnel et améliorant la rapidité de la réponse aux besoins d’affaires.
Perspective commerciale : Valeur économique des Tokens
D’un point de vue commercial, les Tokens ne constituent pas seulement une composante technique, mais sont directement liés à l’amélioration de l’efficacité opérationnelle, à l’élargissement de l’expérience client et à l’exploration de nouveaux modèles commerciaux.
- Optimisation des services clients : La Tokenisation rend l’automatisation du service client possible, traitant les demandes clients rapidement et avec précision, augmentant ainsi la satisfaction client et la fidélité à la marque.
- Marketing personnalisé : Grâce à l’utilisation de l’analyse Tokenisée des comportements et des préférences des utilisateurs, les entreprises peuvent proposer des contenus marketing hautement personnalisés, augmentant les taux de conversion des ventes.
Perspectives d’avenir et défis des Tokens
Directions de développement futur
Avec l’avancement des technologies IA, l’application des Tokens devrait devenir de plus en plus intelligente et diversifiée :
- Applications multimodales : La technologie des Tokens ne se limitera pas au traitement du texte, elle s’étendra à l’analyse de contenus multimédias tels que vidéos et audio, soutenant ainsi des cas d’utilisation plus larges.
- Optimisation intelligente : Les méthodes de génération et de traitement des Tokens deviendront plus intelligentes, par exemple, à travers l’IA, ajustant automatiquement la granularité et le nombre de Tokens pour répondre aux divers besoins des entreprises.
Défis et opportunités commerciales
- Sécurité et confidentialité des données : Assurer la sécurité des données et la confidentialité des utilisateurs lors du traitement par Tokenisation représente un défi clé, en particulier lors de la gestion d’informations sensibles.
- Intégration technologique : La clé pour réaliser la transformation technologique réside dans la façon dont la technologie des Tokens peut être intégrée sans faille aux systèmes informatiques et aux processus commerciaux existants.
- Équité et transparence : Il est essentiel de garantir que les décisions prises à travers la Tokenisation soient justes et transparentes, renforçant ainsi la confiance de toutes les parties prenantes.
Conclusion
En écrivant cet article, Lin Miao a partagé une nouvelle direction actuelle (merci), https://arxiv.org/abs/2104.12369. D’après la pratique du modèle Pangu de Huawei, l’évolution des Tokens dans le domaine chinois tend à devenir moins technique ; cela reste à observer.
Avant d’écrire cet article, ma compréhension des Tokens était limitée à la notion vague qu’un caractère chinois équivaut à 1 Token, et j’appariais souvent la Tokenisation et la vectorisation. Il y a encore un travail de Tokenisation avant vectorisation. Mieux se préparer pour l’IA et mieux accueillir le changement, comment mieux utiliser les données existantes dans les systèmes d’applications d’entreprise ? C’est ici qu’on peut commencer !
Liens de référence
- https://platform.openai.com/tokenizer
- https://arxiv.org/abs/2104.12369
- https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them
- https://www.coindesk.com/learn/a-beginners-guide-to-ai-tokens/
- https://ogre51.medium.com/context-window-of-language-models-a530ffa49989
- https://cobusgreyling.medium.com/rag-llm-context-size-6728a2f44beb
- https://www.humanfirst.ai/blog/how-does-large-language-models-use-long-contexts
- https://slator.com/10-large-language-models-that-matter-to-the-language-industry/
- https://yourgpt.ai/blog/general/long-context-window-vs-rag
- https://github.com/datawhalechina/hugging-llm/blob/main/content/chapter1/ChatGPT%E5%9F%BA%E7%A1%80%E7%A7%91%E6%99%AE%E2%80%94%E2%80%94%E7%9F%A5%E5%85%B6%E4%B8%80%E7%82%B9%E6%89%80%E4%BB%A5%E7%84%B6.md
- https://gpt-tokenizer.dev/