Lingüística computacional, ¿nicho de mercado?

PokemonVilnius

Madmaxista
Desde
9 May 2017
Mensajes
37.856
Reputación
49.195
Lugar
Vilnius
yo hace unos 20 anhos me estuve follando a una sueca que habia estudiado eso y curraba con el asunto...

ese campo tiene que estar mas trillado que el cambio de modelo productivo en espanha... para que no os calenteis la cabeza
 

FilibustHero

Madmaxista
Desde
16 Sep 2011
Mensajes
8.737
Reputación
22.300
La linguística computacional se divide en varias partes.
- La primera es GPT3
- Luego... ya no hay nada más.
 

reconvertido

Madmaxista
Desde
29 Ago 2010
Mensajes
17.582
Reputación
22.627
Es una asignatura que tengo pendiente de la carrera. Se llama Lógica Computacional. Estoy viéndola ya un poco para que no me pille el toro como la última vez.
Te lanzo una pregunta, tu que seguramente sabes más... ¿Se puede lograr combinar un modelo coneccionista (connectionism) con uno simbólico? Para poder obtener un modelo de inteligencia artificial híbrido.
¿Dónde has visto tu que hay bastante empleo?
¿Se puede lograr combinar un modelo coneccionista (connectionism) con uno simbólico?
No.

El modelo simbólico es un cálculo/álgebra.
El modelo conexionista no deja de ser una función con un algoritmo de minimización/maximización.
 

reconvertido

Madmaxista
Desde
29 Ago 2010
Mensajes
17.582
Reputación
22.627
Yo si le veo futuro.

Por ejemplo ayer vi un proyecto para evaluar que quejas tenian unas personas sobre un banco, a traves de comentarios en RRSS, para poder decirle al banco donde podia conseguir clientes.

Habia una serie de quejas estandar y la tarea era de a traves de un comentario en RRSS ver si encajaba en uno de los puntos estandar.

Por ejemplo "hay pocas oficinas". Y hay un comentario que dice "nunca encuentro una oficina"
Enhorabuena.
No sabía que se había resuelto el problema del significado y que ya habáimos alcanzado sistemas de hard AI.

Eso, sin una clasificación previa brutal de personas que entiendan el significado de las frases, no sirve de nada.
Y si ya tienes a las personas, Y ADEMÁS SON NECESARIAS, ¿para qué quieres a las máquinas?
 

reconvertido

Madmaxista
Desde
29 Ago 2010
Mensajes
17.582
Reputación
22.627
La linguística computacional se divide en varias partes.
- La primera es GPT3
- Luego... ya no hay nada más.
AI-Generated Text Is the Scariest Deepfake of All - Slashdot
There are a few problems with the GPT-3 AI the article is referring to:

1) It has no understanding of context.
2) It can't stay on topic.
3) It doesn't even understand topic sentences.
4) It doesn't understand anything, it picks words interpolating what it has seen before.
4) It is barely coherent, sometimes producing sentences that don't even parse.

So a typical forum poster. Carry on.

Are We in an AI Overhang? - Slashdot

I find the hype around GPT-3 greatly exagerated.
It's basically just a giant glorified "auto-correct"-like text predictor. It takes text modelling (a concept that existed two decades ago [eblong.com]) and just throws insanely vast amount of processing power to it.

Of course, given the sheer size of the neural net powering it underneath, the result are incredible in terms of style that the AI can write in.

It can keep enough context to make whole pargraph that are actually coherent (As opposed to the "complete this sentence using you're phone's autocomplete" game that has been making rounds on social media). And that paragraph will have a style (text messaging, prose, computer code) that matches the priming you gave to it.
But it's still just text prediction, the AI is good at modelling the context, but doesn't have any concept of the subject it's writing about, it's just completing paragraphs in the most realistic manner, but doesn't track the actual things it's talking about.
It will write a nice prose paragraph, but do not count on it to complete the missing volumes of GRR Martin's Songs book serie - it lacks the concept of "caracters" and tracking ehri inner motivation.
It will write a nice looking C function, but is unable to write the Linux kernel, because it doesn't have a mental map of the architecture that is needed.

It's not really transformative or revolutionnary. It's just the natural evolution what two decade of research in AI (Neural Net and giant clouds able to train hyper large nets) can add to the simplistic Markov toy example I linked above.
It's basically Deep Drumpf [twitter.com] on steroids.



Mientras no se tenga:
  1. Una ontología.
  2. Un modelo de la mente.
  3. Un modelo del yo.
Difícil hacer nada lingüístico.
Y esto es la inteligencia artificial dura (hard AI) o auténtica.

Aquí una evaluación estilo Turing.
Se le somete a sinsentidos, y no sabe reaccionar.
¿Motivo?
Le falta comprensión.
Giving GPT-3 a Turing Test
Lo que ocurre es que la carga cognitiva de dar un marco de referencia de congruencia lo lleva el humano, no la máquina.
El humano ve lo que quiere ver, porque aporta el marco de referencia CONSTANTEMENTE.
En cuanto lo rompe, la máquina se pierde, porque es un repetidor vació (como la mayoría de seres humanos, especialmente los progres y emotivos).

Un artículo al respecto:
OpenAI’s new language generator GPT-3 is shockingly good—and completely mindless

No es mucho mejor que RACTER, sólo sabe de más temas.
racter - Buscar con Google
sonrisa:
 

Yarará Guazú

Cuñado nija
Desde
26 Mar 2020
Mensajes
536
Reputación
243
Yo ahora mismo estoy viendo como conceptos como Gramáticas de Contexto Libre, análisis sintáctico (recursividad por la izquierda y derecha, deshacer ambigüedades, técnica ascendente y descendente...) y ahora estoy empezando con el cálculo de proposiciones.
Podrías decirme a que te refieres exactamente con cálculo de proposiciones. ¿Qué estudias? Saludos.
 

Gian Gastone

Madmaxista
Desde
10 Sep 2010
Mensajes
2.016
Reputación
1.588
Epieza por aquí, q es gratis:

Speech and Language Processing
An Introduction to Natural Language Processing,
Computational Linguistics, and Speech Recognition
Third Edition draft
Daniel Jurafsky
Stanford University
 

megamax

Himbersor
Desde
24 Jun 2020
Mensajes
1.440
Reputación
2.204
Yo ahora mismo estoy viendo como conceptos como Gramáticas de Contexto Libre, análisis sintáctico (recursividad por la izquierda y derecha, deshacer ambigüedades, técnica ascendente y descendente...) y ahora estoy empezando con el cálculo de proposiciones.
En mis tiempos en la carrera te tocaba escribir un compilador (o al menos una especie de compilador)... usabamos lex y yacc... ahora que se usa?
 

JvB

Himbersor
Desde
4 Ago 2017
Mensajes
778
Reputación
853
Lugar
Centrándome
Pila de cosas interesantes ... Pillo sitio para ver si puedo enterarme de algo que me sirva
 

donjosele

Forero Paco Demier
Desde
8 May 2019
Mensajes
47
Reputación
43
En mis tiempos en la carrera te tocaba escribir un compilador (o al menos una especie de compilador)... usabamos lex y yacc... ahora que se usa?
Yo use lo mismo para crear la gramática del lenguaje y luego el parser. El profesor le llamó al lenguaje stupido :confused
 

Trollaco del copón

Será en Octubre
Desde
5 Ene 2011
Mensajes
26.100
Reputación
62.160
Vamos un pastiche que han inventado los de letras a ver si sucan algo en empleo de nuevas tecnologías
 

HelloAsilvestrados

Desincentivadora
Desde
18 May 2020
Mensajes
1.856
Reputación
1.183
Lugar
Mi casa
Todo da dinero si consigues que te contraten.

En USA a menos que seas negro o mujer es difícil que te contraten.
Si lo hacen será porque:
  1. Eres un cerebrito.
  2. Eres más machaca que cerebrito.
  3. Habrán contratado mínimo un negro y un mujer por aquello de la discriminación positiva.
  4. Harán que trabajes por ti, por el negro y la mujer contratados.
  5. Te llamarán racista y machista.
  6. Tu opinión no es no será tenida en cuenta, se hará lo contrario de lo que digas, por explotador heteropatriarcal y racista y tu privilegio blanco y tal.
  7. Te harán mobbing y bullying.

Lo mejor que puedes hacer es HUÍR de toda la ciencia, lal técnica, la informática y la industria.
Que diseñen y fabriquen negros y mujeres.
Si pueden claro.
A ti te han diseñado mal
 

The Hellion

Madmaxista
Desde
3 Ago 2011
Mensajes
6.061
Reputación
15.342
Vamos un pastiche que han inventado los de letras a ver si sucan algo en empleo de nuevas tecnologías
No, lo has entendido al revés.

Es un timo montado por los informáticos para convencer a los de letras de que un programa informático puede redactar como un niño de ocho años.