Home Tecnología La perplejidad le permite probar Deepseek R1 – sin el riesgo de...

La perplejidad le permite probar Deepseek R1 – sin el riesgo de seguridad

22
0

Miragec/Getty Photographs

La startup china Deepseek AI y sus modelos de idiomas de código abierto se hicieron cargo del ciclo de noticias esta semana. Además de ser comparables a modelos como Claude de Anthrope y Openi’s O1, los modelos han planteado varias preocupaciones sobre la privacidad de los datos, la seguridad y la censura forzada al gobierno chino dentro de su capacitación.

La plataforma de búsqueda de IA Perplexity y AI Assistant You.com han encontrado una forma de evitarlo.

También: el modelo de IA de Deepseek resulta fácil de jailbreak, y peor

El lunes, perplejidad Publicado en x que ahora alberga Deepseek R1. El plan gratuito brinda a los usuarios tres consultas de nivel profesional por día, que podría usar con R1, pero necesitará el plan profesional de $ 20 por mes para acceder a ella más que eso.

En otro correola compañía confirmó que aloja a Deepseek “en los centros de datos de EE. UU./UE: sus datos nunca abandonan los servidores occidentales”, asegurando a los usuarios que sus datos serían seguros si usen los modelos de código abierto sobre la perplejidad.

“Ninguno de sus datos va a China”, reiteró el CEO de Perplexity CEO Aravind Srinivas en un Publicación de LinkedIn.

Además: probé las habilidades de codificación R1 y V3 de Deepseek, y no todos estamos condenados (todavía)

El asistente de IA de Deepseek, impulsado por sus modelos V3 y R1, es accesible a través del navegador o la aplicación, pero aquellos requieren comunicación con los servidores con sede en China de la compañía, lo que crea un riesgo de seguridad. Los usuarios que descarguen R1 y lo ejecutan localmente en sus dispositivos evitarán ese problema, pero aún así se encuentran con la censura de ciertos temas determinados por el gobierno chino, ya que está incorporado de forma predeterminada.

Como parte de la oferta de R1, la perplejidad afirmó que eliminó al menos parte de la censura integrada en el modelo. Srinivas publicó un captura de pantalla en x de resultados de consulta que reconocen al presidente de Taiwán.

Para verificar, le pregunté a R1 sobre la plaza Tiananmen usando perplejidad, pero se negó a responder.

captura de pantalla-2025-01-30-AT-2-06-18pm.png

Captura de pantalla de Radhika Rajkumar/Zdnet

El soporte de perplejidad aclaró que esto se debió a que R1 estaba configurado en modo de escritura y, por lo tanto, no estaba conectado a fuentes que lo ayudarían a proporcionar una respuesta sin censura. Sin embargo, cuando le pregunté a R1 si está capacitado para no responder ciertas preguntas determinadas por el gobierno chino, respondió que está diseñado para “centrarse en la información objetiva” y “evitar comentarios políticos”, y que su capacitación “enfatiza la neutralidad en el world asuntos “y” sensibilidad cultural “.

Además: el nuevo agente de investigación profunda de Openi puede hacer en 5 minutos lo que podría llevarle horas

You.com ofrece V3 y R1, de manera related solo a través de su nivel Professional, que cuesta $ 15 por mes (descuento de los $ 20 habituales) y sin ninguna consulta gratuita. Además del acceso a todos los modelos que ofrece Yo.com, el plan Professional viene con cargas de archivos de hasta 25 MB por consulta, una ventana de contexto máximo de 64k y acceso a la investigación y los agentes personalizados.

Bryan McCann, cofundador y CTO, explicó en un correo electrónico a ZDNET que los usuarios pueden acceder a R1 y V3 a través de la plataforma de tres maneras, todas las cuales usan “una versión de código abierto no modificada de los modelos Deepseek alojados completamente dentro del United The United Estados para garantizar la privacidad del usuario “.

“La primera forma predeterminada es usar estos modelos dentro del contexto de nuestra capa de confianza patentada. Esto le da a los modelos acceso a fuentes internet públicas, un sesgo hacia citar esas fuentes y una inclinación a respetar esas fuentes al generar respuestas”, McCann “, McCann continuado. “La segunda forma es que los usuarios desactive el acceso a fuentes internet públicas dentro de sus controles de origen o mediante el uso de los modelos como parte de los agentes personalizados. Esta opción permite a los usuarios explorar las capacidades y el comportamiento únicos de los modelos cuando no se basan en la internet pública . La tercera forma es que los usuarios prueben los límites de estos modelos como parte de un agente personalizado agregando sus propias instrucciones, archivos y fuentes “.

También: los mejores modelos de IA de código abierto: todas sus opciones de uso gratuito explicados

McCann señaló que usted.com comparó las respuestas de Deepseek Fashions en función de si tenía acceso a fuentes internet. “Notamos que las respuestas de los modelos diferían en varios temas políticos, a veces negándose a responder sobre ciertos temas cuando no se incluyeron fuentes internet públicas”, explica. “Cuando nuestra capa de confianza estaba habilitada, fomentando la cita de fuentes internet públicas, las respuestas de los modelos respetaban esas fuentes, aparentemente anulando prejuicios políticos anteriores”.

Para los desarrolladores, Deepseek R1 ahora está disponible en plataformas que incluyen Azure y Github, AWSy Nvidia,



fuente