ChatGPT IA et conception de puzzles

ChatGPT est un chatbot IA avancé formé par OpenAI qui interagit de manière conversationnelle. Le format de dialogue permet à ChatGPT de répondre aux questions de suivi, d'admettre ses erreurs, de contester des prémisses incorrectes et de rejeter les demandes inappropriées.

La technologie GPT peut aider les utilisateurs à écrire du code rapidement et avec précision en utilisant le langage naturel comme invite. GPT peut prendre une invite de texte et générer un code adapté à la tâche donnée. Cette technologie a le potentiel de réduire le temps de développement, car elle peut générer du code rapidement et avec précision. Cela peut également contribuer à réduire le risque d’erreurs, car GPT est capable de générer du code pouvant être testé et utilisé immédiatement.

Google a transmis des questions d'entretien de codage à ChatGPT et, sur la base des réponses de l'IA, a déterminé qu'il serait embauché pour un poste d'ingénieur de niveau trois, selon un document interne.

Il est rapporté que des chercheurs ont récemment soumis ChatGPT à l'examen de licence médicale aux États-Unis. Dans un rapport de décembre, ChatGPT « a atteint ou proche du seuil de réussite pour les trois examens sans aucune formation ni renforcement ».

dtrgf

ChatGPT, est-ce vraiment aussi fiable

« L’une des limites des grands modèles linguistiques est que nous ne sommes pas capables de comprendre le contexte ou la signification des mots que nous générons. Nous ne pouvons produire un texte que sur la base des probabilités de certains mots ou séquences de mots apparaissant ensemble, sur la base des données de formation qui nous ont été fournies. Cela signifie que nous ne pouvons pas fournir d'explications ou de raisonnements pour nos réponses, et que nous ne pouvons pas toujours générer des réponses complètement cohérentes ou logiques dans le contexte d'une conversation.

« Une autre limite est que nous n'avons pas accès à la grande quantité de connaissances dont dispose un être humain. Nous ne pouvons fournir que les informations sur lesquelles nous avons été formés, et nous ne serons peut-être pas en mesure de répondre à des questions qui ne relèvent pas de nos données de formation.

« Enfin, parce que nous sommes formés sur une grande quantité de données, nous pouvons parfois générer des réponses contenant un langage offensant ou inapproprié. Ce n'est pas intentionnel, mais c'est une limitation des données de formation qui nous ont été fournies et des algorithmes que nous utilisons pour générer du texte.

Les nouvelles ci-dessus proviennent du quotidien chinois :

Dans le domaine de la conception de puzzles, nos concepteurs se sentent également menacés par Chat GPT, mais notre travail de conception consiste davantage à ajouter la création et la compréhension humaines, ce qu'il ne pourrait pas faire à la place du concepteur humain, comme le sens des couleurs et l'intégration culturelle que les humains souhaitent. exprimer dans le puzzle.


Heure de publication : 08 mai 2023