Lingüística computacional, ¿nicho de mercado?

FilibustHero

Madmaxista
Desde
16 Sep 2011
Mensajes
15.557
Reputación
41.359
La linguística computacional se divide en varias partes.
- La primera es GPT3
- Luego... ya no hay nada más.
 

reconvertido

Será en Octubre
Desde
29 Ago 2010
Mensajes
40.684
Reputación
56.085
Es una asignatura que tengo pendiente de la carrera. Se llama Lógica Computacional. Estoy viéndola ya un poco para que no me pille el toro como la última vez.
Te lanzo una pregunta, tu que seguramente sabes más... ¿Se puede lograr combinar un modelo coneccionista (connectionism) con uno simbólico? Para poder obtener un modelo de inteligencia artificial híbrido.
¿Dónde has visto tu que hay bastante empleo?
¿Se puede lograr combinar un modelo coneccionista (connectionism) con uno simbólico?
No.

El modelo simbólico es un cálculo/álgebra.
El modelo conexionista no deja de ser una función con un algoritmo de minimización/maximización.
 

reconvertido

Será en Octubre
Desde
29 Ago 2010
Mensajes
40.684
Reputación
56.085
Yo si le veo futuro.

Por ejemplo ayer vi un proyecto para evaluar que quejas tenian unas personas sobre un banco, a traves de comentarios en RRSS, para poder decirle al banco donde podia conseguir clientes.

Habia una serie de quejas estandar y la tarea era de a traves de un comentario en RRSS ver si encajaba en uno de los puntos estandar.

Por ejemplo "hay pocas oficinas". Y hay un comentario que dice "nunca encuentro una oficina"
Enhorabuena.
No sabía que se había resuelto el problema del significado y que ya habáimos alcanzado sistemas de hard AI.

Eso, sin una clasificación previa brutal de personas que entiendan el significado de las frases, no sirve de nada.
Y si ya tienes a las personas, Y ADEMÁS SON NECESARIAS, ¿para qué quieres a las máquinas?
 

reconvertido

Será en Octubre
Desde
29 Ago 2010
Mensajes
40.684
Reputación
56.085
La linguística computacional se divide en varias partes.
- La primera es GPT3
- Luego... ya no hay nada más.
AI-Generated Text Is the Scariest Deepfake of All - Slashdot
There are a few problems with the GPT-3 AI the article is referring to:

1) It has no understanding of context.
2) It can't stay on topic.
3) It doesn't even understand topic sentences.
4) It doesn't understand anything, it picks words interpolating what it has seen before.
4) It is barely coherent, sometimes producing sentences that don't even parse.

So a typical forum poster. Carry on.

Are We in an AI Overhang? - Slashdot

I find the hype around GPT-3 greatly exagerated.
It's basically just a giant glorified "auto-correct"-like text predictor. It takes text modelling (a concept that existed two decades ago [eblong.com]) and just throws insanely vast amount of processing power to it.

Of course, given the sheer size of the neural net powering it underneath, the result are incredible in terms of style that the AI can write in.

It can keep enough context to make whole pargraph that are actually coherent (As opposed to the "complete this sentence using you're phone's autocomplete" game that has been making rounds on social media). And that paragraph will have a style (text messaging, prose, computer code) that matches the priming you gave to it.
But it's still just text prediction, the AI is good at modelling the context, but doesn't have any concept of the subject it's writing about, it's just completing paragraphs in the most realistic manner, but doesn't track the actual things it's talking about.
It will write a nice prose paragraph, but do not count on it to complete the missing volumes of GRR Martin's Songs book serie - it lacks the concept of "caracters" and tracking ehri inner motivation.
It will write a nice looking C function, but is unable to write the Linux kernel, because it doesn't have a mental map of the architecture that is needed.

It's not really transformative or revolutionnary. It's just the natural evolution what two decade of research in AI (Neural Net and giant clouds able to train hyper large nets) can add to the simplistic Markov toy example I linked above.
It's basically Deep Drumpf [twitter.com] on steroids.



Mientras no se tenga:
  1. Una ontología.
  2. Un modelo de la mente.
  3. Un modelo del yo.
Difícil hacer nada lingüístico.
Y esto es la inteligencia artificial dura (hard AI) o auténtica.

Aquí una evaluación estilo Turing.
Se le somete a sinsentidos, y no sabe reaccionar.
¿Motivo?
Le falta comprensión.
Giving GPT-3 a Turing Test
Lo que ocurre es que la carga cognitiva de dar un marco de referencia de congruencia lo lleva el humano, no la máquina.
El humano ve lo que quiere ver, porque aporta el marco de referencia CONSTANTEMENTE.
En cuanto lo rompe, la máquina se pierde, porque es un repetidor vació (como la mayoría de seres humanos, especialmente los progres y emotivos).

Un artículo al respecto:
OpenAI’s new language generator GPT-3 is shockingly good—and completely mindless

No es mucho mejor que RACTER, sólo sabe de más temas.
racter - Buscar con Google
sonrisa:
 

Yarará Guazú

Himbersor
Desde
26 Mar 2020
Mensajes
2.254
Reputación
1.553
Yo ahora mismo estoy viendo como conceptos como Gramáticas de Contexto Libre, análisis sintáctico (recursividad por la izquierda y derecha, deshacer ambigüedades, técnica ascendente y descendente...) y ahora estoy empezando con el cálculo de proposiciones.
Podrías decirme a que te refieres exactamente con cálculo de proposiciones. ¿Qué estudias? Saludos.
 

Gian Gastone

Madmaxista
Desde
10 Sep 2010
Mensajes
2.453
Reputación
2.311
Epieza por aquí, q es gratis:

Speech and Language Processing
An Introduction to Natural Language Processing,
Computational Linguistics, and Speech Recognition
Third Edition draft
Daniel Jurafsky
Stanford University
 

JvB

Madmaxista
Desde
4 Ago 2017
Mensajes
1.407
Reputación
1.648
Lugar
Centrándome
Pila de cosas interesantes ... Pillo sitio para ver si puedo enterarme de algo que me sirva
 

donjosele

Forero Paco Demier
Desde
8 May 2019
Mensajes
47
Reputación
45
Yo use lo mismo para crear la gramática del lenguaje y luego el parser. El profesor le llamó al lenguaje stupido :confused
 

Trollaco del copón

Será en Octubre
Desde
5 Ene 2011
Mensajes
32.439
Reputación
81.278
Vamos un pastiche que han inventado los de letras a ver si sucan algo en empleo de nuevas tecnologías
 

HelloAsilvestrados

Desincentivadora
Desde
18 May 2020
Mensajes
4.618
Reputación
3.752
Lugar
Mi casa
Todo da dinero si consigues que te contraten.

En USA a menos que seas oscuro o mujer es difícil que te contraten.
Si lo hacen será porque:
  1. Eres un cerebrito.
  2. Eres más machaca que cerebrito.
  3. Habrán contratado mínimo un oscuro y un mujer por aquello de la discriminación positiva.
  4. Harán que trabajes por ti, por el oscuro y la mujer contratados.
  5. Te llamarán racista y machista.
  6. Tu opinión no es no será tenida en cuenta, se hará lo contrario de lo que digas, por explotador heteropatriarcal y racista y tu privilegio blanco y tal.
  7. Te harán mobbing y bullying.

Lo mejor que puedes hacer es HUÍR de toda la ciencia, lal técnica, la informática y la industria.
Que diseñen y fabriquen personas de color y mujeres.
Si pueden claro.
A ti te han diseñado mal