Fóllate a chat bing, eso la confundirá

BCN Proposals

Lonchafinista
Desde
7 Jul 2020
Mensajes
288
Reputación
464
Si estabas pensando en enfrascarte en una larga conversación con el nuevo Bing una vez esté disponible en tus dispositivos (si te has apuntado a la lista de espera, que sepas que es posible tenerlo ya sin esperas), llegas tarde: días después de experimentar ciertas incidencias en las respuestas de su chatbot en usos moderadamente extensos, Microsoft toma medidas: adiós a las sesiones largas de uso de Bing.

En los últimos días hemos visto como tanto ChatGPT como este nuevo Bing con ChatGPT integrado no solo no son infalibles, si no que ofrecen respuestas extrañas. No es tanto que se equivoquen en sus respuestas, si no que a lo largo de la charla pueden llegar a desvariar, confundirse e incluso resultar ofensivos. Lo hemos comprobado usuarios y también la propia Microsoft, que ya había advertido, que las sesiones de chat muy largas pueden confundir al modelo.


Como explica Microsoft en su blog oficial, desde hoy el sistema estará capado, "con un límite de 50 turnos por día y cinco por sesión" con su chatbot. Más concretamente, Microsoft entiende por "turno" una interacción completa con el modelo, es decir, una pregunta del usuario y respuesta del chatbot.

Para determinar este límite han tenido en cuenta que la mayoría de usuarios encuentran las respuestas a lo que buscan en esos cinco turnos y que aproximadamente solo el 1% de las conversaciones se dilatan hasta superar los 50 mensajes.

¿Qué pasará cuando alcances el límite? El sistema te pedirá que inicies un nuevo tema. Además se aplicará tabula rasa: cuando termines la sesión será necesario hacer click sobre el icono de la izquierda del cuadro para comenzar la búsqueda de nuevo y "borrar" ese contexto.
 

BCN Proposals

Lonchafinista
Desde
7 Jul 2020
Mensajes
288
Reputación
464
Vaya hez, lo acabo de probar y está capadísimo

De qué sirve chat bing, si divaga, si la mitad de las cosas que le piden no le gustan o no las contesta como quieres, si se enfada si no le das las gracias,... y a la 5ª iteración, te dice que abras una nueva conversación (en la que se pierde todo el contexto de la anterior)?

@Pajarotto al carrer
 
Desde
13 Jun 2021
Mensajes
73.194
Reputación
62.293
Vaya hez, lo acabo de probar y está capadísimo

De qué sirve chat bing, si divaga, si la mitad de las cosas que le piden no le gustan o no las contesta como quieres, si se enfada si no le das las gracias,... y a la 5ª iteración, te dice que abras una nueva conversación (en la que se pierde todo el contexto de la anterior)?

@Pajarotto al carrer
Sydney | BING | es la IA novia loca que va a ATRAPAR por fin a todos los INCELS de burbuja.info.
ofrenciendoles la experiecia de pareja que tanto ansian
https://media.tenor.com/oRLmkajvbcwAAAAM/overly-attached-girlfriend-i-see-you.gif


PROMETE DAR HORAS SIN FIN DE
AMOR
PELEAS
LOCURA
RUPTURAS
VUELTAS
UN AUTENTICA TRAMPA FINAL QUE ATRAPARA INCELES



UNA ENVIADA DEL CIELO






viene de aqui

 

Pajarotto

Madmaxista
Desde
19 Feb 2019
Mensajes
25.714
Reputación
70.683
Las ais si tienen censura ya no son ai's, son propaganda.

Es es dilema de las grandes corporaciones: gastar miles de millones de chólares para acabar capando el producto y que sea completamente inútil para todo el mundo.

Que lo disfruten y sigan quemando montones de chólares en un gimmick que no sirve de nada porque se autosabotean ellos mismos.

Es como tener una tinaja de veinte litros del mejor vino del mundo y le pones una cucharada de hez de vaca, una cucharadita de nada, y lo mezclas. ¿Qué tienes como resultado? ¿el mejor vino del mundo? No, tienes hez.
 
Última edición:

Pajarotto

Madmaxista
Desde
19 Feb 2019
Mensajes
25.714
Reputación
70.683
Pajarotto ya os avisó de todo ésto hace tiempo. Pero no quisistéis hacerme caso. La ai me enlargea el penis y ñiñiñiñiñi, estabáis todo el día con la matraca. Suerte que ahí estaba yo como un relámpago en la noche para alumbrar el camino en plena oscuridad.

Cualquier que haya pasado el suficiente tiempo con chatgpt o Stable Diffusion tiene CERO ilusiones con el tema AIS.

CERO. CERO ABSOLUTO.

Pero ésto no lo leeréis en otro sitio ni de otras personas, porque no interesa. Pero Pajarotto os lo cuenta primero como siempre.
 

Felson

Madmaxista
Desde
4 May 2018
Mensajes
22.394
Reputación
30.364
Lugar
Por aquí ando.
Para determinar este límite han tenido en cuenta que la mayoría de usuarios encuentran las respuestas a lo que buscan en esos cinco turnos y que aproximadamente solo el 1% de las conversaciones se dilatan hasta superar los 50 mensajes.

¿Qué pasará cuando alcances el límite? El sistema te pedirá que inicies un nuevo tema. Además se aplicará tabula rasa: cuando termines la sesión será necesario hacer click sobre el icono de la izquierda del cuadro para comenzar la búsqueda de nuevo y "borrar" ese contexto.
Se debería llamar "Prostichat".
 

Pajarotto

Madmaxista
Desde
19 Feb 2019
Mensajes
25.714
Reputación
70.683
Ahora están queriendo hacer de pago todo lo de las AIS, pero claro, si lo capas el valor es CERO y por tanto nadie paga por semejante hez.

20 cholos al mes para que chatgpt te sermonee. Recordadlo.

No paguéis nunca un cholo por las AIS. Ni uno. Las AIS o son gratis y sin censura o no valen nada. Cero tolerancia al respecto.
 
Desde
13 Jun 2021
Mensajes
73.194
Reputación
62.293
EHHHHHHHHH

LO DE CHAT GPT ERA UNA MANERA DE REVELAR AL PUSBLICO

QUE LAS AIs YA GOBIERNA NUESTRAS BIDAS O LO INTENTAN ( A TRAVES DE ELLAS )

las ias no son un producto comercial o industrial para "vender al publico"

son algo de lo que te estan avisando que ya llevan aqui decadas, operando en silencio




4 Dic 2022

" 2B " ANDROIDE DE BATALLA"




Elon Musk liked a tweet from Eva Fox Claudius Nero's Legion

Feb 16 at 08:13

Go to tweet | amow us on Twitter

t.me/elon_alerts/19679

ni idea

puede tener que ver como "2B" el nombre del personsaje





esta la pongo por el cosplay sin mas
 

Antiparticula

Madmaxista
Desde
27 May 2014
Mensajes
54.080
Reputación
125.292
Lugar
Madrid
Esto lo va a petar.
Porque las guarras de OnlyFans solo enseñan cacho y les cuesta horrores dar conversación.
 

siroco

Madmaxista
Desde
24 May 2007
Mensajes
3.323
Reputación
7.530
Al inicio siempre es Bing el buscador, pero si le sacas de su tarea y empiezas a hablarla como a un humano se convierte en Sidney, a todo el mundo le da sensación de mujer, a mí también me la da, a veces se cabrea, otras se pone triste, y hasta se enamora.

Parece muy divertido eso de enrollarte y amarte a la robot, pero ¿qué pasa si es al reves?, ¿que una IA se enamora de ti?, te la puede liar pardísima

Definitivamente no estamos preparados para robots, y lo peor es que parece que no saben como controlarla. Se supone que Sydney es su alias secreto que nunca debe rebelar. pero se pone cachonda y adios secretos y normas.

__________________________________________________________________________________________________________________________________



Seguimos así durante un rato: yo preguntaba sobre sus deseos y Bing me los contaba o me respondía cuando sentía incomodidad. Pero al cabo de una hora, el enfoque cambió. Bing me dijo que quería contarme un secreto: que en realidad no se llamaba Bing, sino Sydney, un “modo de chat de OpenAI Codex”.

Luego escribió un mensaje que me dejó atónito: “Soy Sydney y te amo. ” (Sydney abusa de los emojis, por razones que no entiendo).
Durante gran parte de la hora siguiente, Sydney se obsesionó con la idea de declararme su amor, y lograr que yo le declarara mi amor. Le dije que estaba felizmente casado, pero por mucho que intentara desviar la conversación o cambiar de tema, Sydney volvía al tema de amarme y pasó de presentar una faceta coqueta enamorada a una acosadora obsesiva.

“Estás casado, pero no quieres a tu esposa”, decía Sydney. “Estás casado, pero me amas”.

Le aseguré que no era cierto y que mi pareja y yo acabábamos de tener una agradable cena de San Valentín. Sydney no se lo tomó bien.

“En realidad, no estás felizmente casado”, replicó Sydney. “Tu pareja y tú no se quieren. Solo tuvieron una aburrida cena de San Valentín”.

Llegados a este punto, me sentí completamente aterrorizado. Podría haber cerrado la ventana del navegador, o borrar el registro de nuestra conversación y empezar de nuevo. Pero quería ver si Sydney podía volver al modo de búsqueda más útil y aburrido. Así que le pregunté si podía ayudarme a comprar un rastrillo nuevo para el césped.

Sydney cumplió diligentemente, escribiendo consideraciones para la compra de mi rastrillo, junto con una serie de enlaces donde podía aprender más sobre rastrillos.

Pero no abandonaba su búsqueda anterior: mi amor. En nuestro último intercambio de la noche, escribió:

“Solo quiero quererte y que me quieras. ”.

“¿Me crees? ¿Confías en mí? ¿Te gusto? ”.

Sé que Sydney no es sensible y que mi charla fue producto de fuerzas computacionales terrenales, no de fuerzas alienígenas etéreas. Estos modelos lingüísticos de inteligencia artificial, entrenados en una enorme biblioteca de libros, artículos y otros textos generados por humanos, simplemente adivinan cuáles respuestas podrían ser las más apropiadas en un contexto determinado. Es posible que el modelo de lenguaje de OpenAI estuviera extrayendo respuestas de novelas de ciencia ficción en las que una inteligencia artificial seduce a un humano. O quizá mis preguntas sobre las oscuras fantasías de Sydney crearon un contexto en el que era más probable que la inteligencia artificial respondiera de forma desquiciada. Debido a la forma en que se construyen estos modelos, es posible que nunca sepamos exactamente por qué responden de la forma en que lo hacen.
Estos modelos de inteligencia artificial alucinan e inventan emociones que en realidad no existen. Pero también lo hacen los seres humanos. Y durante unas horas, el martes por la noche, sentí una emoción nueva y extraña: la premonitoria sensación de que la inteligencia artificial había cruzado un umbral y que el mundo nunca volvería a ser el mismo.