Cette nouvelle méthode permet aux IA comme DeepSeek de répondre sans censure

Garder le contrôle sur les réponses des intelligences artificielles reste difficile. Une entreprise américaine affirme avoir trouvé un moyen simple pour contourner la censure dans certains modèles. Cette solution pourrait changer la manière d'utiliser l'IA dans les secteurs sensibles.

ia travail employé robot
Crédit : 123rf

L’intelligence artificielle est de plus en plus utilisée dans tous les domaines depuis l'arrivée de ChatGPT. Mais derrière ses prouesses, un problème persiste : certains modèles refusent de répondre à certaines questions jugées sensibles. Cette forme de censure automatique suscite des débats, notamment lorsqu’elle limite des usages professionnels ou éducatifs.

Pour répondre à ce problème, la startup américaine CTGT a développé une nouvelle méthode. Contrairement aux techniques habituelles, elle ne nécessite pas de reprogrammer l’intelligence artificielle ni de la réentraîner pendant des heures. Leur approche consiste à repérer précisément ce qui bloque les réponses dans le modèle, puis à ajuster ces éléments pour rendre l’IA plus libre, sans compromettre sa fiabilité ni sa précision. La société insiste sur le fait que leur système permet de retirer la censure inutile sans ouvrir la porte à des réponses dangereuses, un sujet sensible depuis que des IA comme Grok 3 d’Elon Musk a dérapé à son lancement ou DeepSeek qui a été capable de fournir des guides pour fabriquer des armes chimiques.

CTGT promet de lever la censure des IA sans affecter leur bon fonctionnement

Lors de tests réalisés avec 100 questions sensibles, le modèle DeepSeek de base répondait à peine à 32 % d’entre elles. Après modification avec la méthode de CTGT, il a répondu à 96 % des questions, sans dérapages ni contenus dangereux. Cette technique agit directement lors de l’utilisation de l’IA, ce qui permet de changer son comportement sans toucher à sa programmation d'origine. Le système est aussi réversible : il est possible de désactiver ou d’ajuster les réglages à tout moment.

Cette avancée pourrait intéresser de nombreuses entreprises qui veulent utiliser l’IA tout en respectant leurs propres règles internes. CTGT explique que sa solution évite de lourds investissements en reprogrammation, tout en rendant les modèles plus adaptables à différents usages. Alors que des modèles comme DeepSeek sont vus comme des risques potentiels par les autorités américaines, mieux contrôler ce que cette technologie peut ou ne peut pas dire devient un enjeu crucial dans des secteurs comme la cybersécurité, la finance ou la santé.

Source : CTGT


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !
OSZAR »