Así es Claude, un chatbot similar a ChatGPT “más manejable” y con resultados menos dañinos, creado por exempleados de OpenAI
Claude fue creado por Anthropic, una compañía formada por exempleados de OpenAI, la creadora de GPT-4; busca ofrecer un diálogo más filtrado y donde haya menos errores y respuestas agresivas
Europa PressAnthropic, la empresa fundada por exempleados de OpenAI (la compañía detrás de GPT-4), ha lanzado este miércoles el nuevo chatbot Claude, que ofrece funciones muy similares a las de ChatGPT, pero es “más manejable” y muestra “menos resultados dañinos”.
La compañía de Inteligencia Artificial (IA) ha adelantado que Claude es capaz de recibir instrucciones para realizar tareas como buscar documentos, resumir información, escribir texto de forma natural y responder preguntas sobre cuestiones concretas. Incluso, el usuario puede dar instrucciones sobre la personalidad, el tono y el comportamiento deseado.
Sin embargo, la diferencia con respecto a otros modelos como ChatGPT es que se trata de un chatbot con cualidades que le hacen “más fácil para conversar y más manejable”, siendo, además, “mucho menos probable que produzca resultados dañinos”, según ha manifestado la compañía en un comunicado de su blog.
En este sentido, Anthropic ha lanzado Claude, poniéndo a disposición de los usuarios dos versiones a través de una interfaz de programación de aplicaciones (API). Se trata de Claude-v1, la opción de alto rendimiento y última generación, y Claude Instant, el modelo más económico.
Concretamente, según refleja la compañía, los precios giran en torno a 1,45 dólares (1,37 euros) por cada millón de caracteres en el caso de Claude Instant y 8,60 dólares (8,15 euros) por un millón de caracteres si se utiliza Claude-v1.
Al igual que ChatGPT, Claude no tiene acceso a Internet y ha sido entrenado con los datos de páginas web públicas hasta la primavera de 2021. Así, según las declaraciones de un portavoz de Anthropic recogidas por TechCrunch, este chatbot fue “entrenado para evitar respuestas sexistas, racistas y tóxicas”, así como “para evitar ayudar a un ser humano a participar en actividades ilegales o poco éticas”.
En este sentido, lo que distingue a Claude es una técnica llamada “IA constitucional”, afirma la compañía desarrolladora. Para ello, Anthropic incluye una lista de alrededor de diez principios que, en conjunto, conforman una especie de constitución (de ahí el nombre de “IA constitucional”).
La empresa no ha hecho públicos los principios concretos en los que se basa esta técnica. No obstante, aseguran que se inspiran en la beneficencia, es decir, en maximizar el impacto positivo; no maleficencia, que hace referencia a evitar dar consejos perjudiciales para el usuario; y autonomía ,que consiste en respetar la libertad de elección.
Anthropic ha lanzado Claude tras haber realizado pruebas con socios como Notion, Quora y DuckDuckGo. Ahora, su API se ha lanzado a nivel global y ya ha puesto a disposición un enlace de acceso anticipado. Sin embargo, el portavoz ha subrayado que no buscan clientes a nivel usuario en este momento, sino “empresas emergentes que hacen apuestas tecnológicas audaces”, además de “empresas más grandes y establecidas”. De esta forma, la compañía pretende conseguir ofrecer un producto “superior y específico”.
Europa PressOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Furor en el mundo entero. Abrió la primera cafetería manejada al 100% por robots
Sheriff. Así se vería Woody de Toy Story en la vida real, según la inteligencia artificial
Procedimiento. Cómo instalar Play Store gratis en el celular
Ubicar tu celular. El nuevo “Encontrar mi dispositivo” de Android permite encontrar tu teléfono aunque esté apagado