En la Universidad de Stanford, donde estoy cursando mi último año, los directores ejecutivos del sector tecnológico son algo así como estrellas del rock. Cuando el fundador de Nvidia, Jensen Huang, apareció para dar una conferencia como invitado a finales del mes pasado, los estudiantes se abalanzaron sobre él. Le ofrecieron sus portátiles y sus estaciones de trabajo personales, desesperados por conseguir un autógrafo de uno de los grandes nombres de la era de la inteligencia artificial. El año pasado, al hablar ante la misma clase, Huang repartió relucientes tarjetas gráficas de 4.000 dólares con su nombre autografiado en tinta dorada. Fue el símbolo de estatus definitivo en las residencias universitarias.
Stanford siempre ha sido un refugio para los aspirantes a expertos en tecnología, pero los acontecimientos recientes han llevado a la universidad a un territorio inexplorado. La IA lo es todo. Hablamos de ella en los comedores y en las clases de historia, en las citas y mientras fumamos con amigos, en el gimnasio y en los baños comunes de las residencias. Casi toda la educación superior se ha visto invadida por esta tecnología, y Stanford es un caso de estudio de hasta dónde puede llegar. Durante los últimos cuatro años, mis compañeros de clase y yo hemos sido sujetos de un experimento de alto riesgo.
Somos la primera promoción universitaria de la era de la IA: ChatGPT llegó al campus unos dos meses después de que lo hiciéramos nosotros. Cuando nos graduemos el mes que viene, esta tecnología habrá alterado nuestras vidas de formas muy diferentes. Para algunos, ha abierto la puerta a una riqueza astronómica. Pero para muchos de los que llegamos a Stanford —¡hace solo cuatro años!—, cuando un título parecía un billete garantizado para un trabajo bien remunerado, la puerta se ha cerrado de golpe. Para todos nosotros, la IA ha cambiado para siempre nuestra forma de pensar y comportarnos.
Stanford ya tenía una reputación inestable en cuanto a integridad cuando llegué en 2022. Fue el lugar de origen de la estafadora de Theranos, Elizabeth Holmes (que ahora cumple una condena de 10 años de prisión), del estafador de criptomonedas Do Kwon (que ahora cumple una condena de 15 años de prisión) y de los fundadores de Juul (que se vio obligada a pagar miles de millones por enganchar a los jóvenes a los cigarrillos electrónicos). Todos estos escándalos estaban en las noticias cuando comenzó el primer curso. Muchos de mis compañeros llegaron idealistas y llenos de esperanza. Pero entre los ambiciosos que buscaban un camino hacia la fortuna, la cultura del «hustle» era la forma de vida aceptada. Ahora, la IA ha hecho que el engaño sea más fácil y más lucrativo que nunca.
Las trampas se han vuelto omnipresentes. No conozco a nadie que no haya utilizado la IA para sacar adelante algún trabajo en la universidad, pero al principio la institución tardó en darse cuenta de lo extendido que llegaría a estar. A medida que avanzaba el primer curso, algunos profesores sugirieron que tal vez fuera necesario recurrir a la «opción nuclear»: permitir que el profesorado supervisara los exámenes presenciales. Dicha práctica estaba prohibida en la universidad desde hacía más de un siglo para demostrar «confianza en el honor» de los estudiantes.
En nuestro mundo, cada vez más tecnificado y ahora impulsado por la inteligencia artificial, los estudiantes se saltaban las normas cada vez más en casi todo. Desviaban fondos de la residencia para gastarlos en sus amigos y mentían diciendo que tenían COVID para conseguir los créditos de UberEats que la universidad ofrecía a quienes estaban en cuarentena. Algunos chicos que conocía publicaron un artículo en el que afirmaban haber logrado un avance revolucionario en inteligencia artificial. Los detectives de Internet señalaron rápidamente que parecía tratarse simplemente de un modelo chino robado. Ante esto, los dos coautores de Stanford respondieron culpando del plagio al tercer autor.
En tercer curso, el 49 % de los 849 estudiantes de informática que respondieron a una encuesta anual del campus dijeron que preferían copiar en un examen antes que suspender. Una amiga mía captó el espíritu de la universidad mientras discutíamos sobre el hardware tecnológico y otros artículos que nuestro club estudiantil se había olvidado de devolver a los patrocinadores corporativos. Todo era, recuerdo que dijo, «solo un pequeño fraude».
A mitad del primer curso, algunas clases de programación empezaron a exigir a los alumnos que firmaran una declaración —«No he utilizado ChatGPT»— para entregar cada trabajo. Durante el primer trimestre en que empezaron a aparecer estas declaraciones, vi a un estudiante de primer curso que conocía firmar la declaración de que había hecho los deberes sin ayuda de la IA. Al mismo tiempo, tenía ChatGPT abierto en la ventana de al lado, y todo ello en la cubierta de una fiesta en un yate financiada por inversores de capital riesgo. Las estructuras de incentivos no estaban orientadas hacia la honestidad. Además, uno podía salir adelante, rápidamente, tomando atajos, centrándose en la imagen personal.
El dinero es una parte importante de ello. La IA no ha hecho más que acelerar una tendencia que ya estaba en marcha en Stanford y que se ha reflejado en muchas de las universidades más corporativizadas del país: la educación en sí misma puede considerarse un objetivo secundario para facilitar el éxito futuro, definido con frecuencia como una ganancia inesperada futura.
La primera vez que nos reunimos toda la promoción de la universidad fue en una ceremonia de graduación a finales de septiembre de 2022. Mientras uno de los oradores parloteaba sin parar, recuerdo que miré a mi alrededor y vi a varios de mis compañeros de clase desplomados a la sombra, echándose una siesta. «Uno de esos chicos se va a convertir pronto en multimillonario», pensé. Me pregunté quién sería y cómo lo lograría
Al principio, la respuesta parecía ser las criptomonedas, y luego fue la inteligencia artificial.
La mayoría de mis amigos recuerdan dónde estaban y qué estaban haciendo cuando se lanzó ChatGPT el 30 de noviembre de 2022. Yo estaba a punto de terminar el famoso curso de «selección» de Informática de Stanford, el CS107. Al igual que la química orgánica para los futuros médicos, esta era la asignatura que separaba a los auténticos programadores de aquellos que carecían de la garra necesaria (con muchas lágrimas públicas y sin pudor de por medio).
La velocidad a la que se produjo el cambio desde el día en que ChatGPT entró en nuestras vidas fue impresionante. Un amigo me envió por mensaje un enlace al avance de la última demostración de OpenAI: «¿Ya has visto esto? Es una LOCURA». Empezamos a lanzar preguntas sin sentido, divirtiéndonos mientras ChatGPT explicaba el algoritmo de ordenación por burbujas «al estilo de un listillo parloteador de una película de gánsteres de los años 40». «Está muy bien. Muy, muy bien», le escribí a mi amigo. Aun así, ninguno de los dos entendimos que esto marcaría la transformación de la IA de una tecnología a un producto.
Probablemente, los estudiantes fueron los primeros en adoptarlo a gran escala. Al fin y al cabo, era, con diferencia, la vía más rápida para sacar un sobresaliente. Cuando cursé CS107, la única forma viable de copiar era buscar a un estudiante que ya hubiera pasado por la asignatura y suplicarle que te diera las soluciones a los ejercicios, famosos por su dificultad. No había alternativa a dedicar una gran cantidad de trabajo. Incluso si se conseguían las respuestas de otro estudiante (lo cual, por cierto, era un acto social, como mínimo), los estudiantes que yo conocía que hacían esto seguían pasando horas retocando el código robado para no ser descubiertos.
Pocos copiaban de esta forma tan descarada en aquella época. Pero un mes después, cualquier estudiante podía recurrir a un chatbot, introduciendo una pregunta en solitario en su habitación de la residencia y repitiendo sin pensar el resultado. «Recuerdo que la primera vez que lo utilicé sentí una culpa inmediata», me dijo recientemente un amigo. «Ahora es algo normal».
La mitad de los portátiles de cualquier clase parecen tener abiertos ChatGPT o Claude. Al principio, experimentar con los modelos era un pasatiempo para los frikis; presumir de haber conseguido acceso anticipado al último modelo de lenguaje grande era un símbolo de estatus, y la gente venía a suplicarte que les dieras tus claves de autorización para probarlo por sí mismos. Sin embargo, en tan solo unos pocos años, la IA se ha convertido en algo habitual. «Es de lo único que hablamos», comentó recientemente mi profesor de historia del arte griego antiguo.
En abril de 2026, la política de exámenes supervisados entró finalmente en vigor. Debido a la IA, la mayoría de nosotros ahora hacemos los exámenes escribiendo en cuadernos azules, como los estudiantes de hace un siglo, garabateando las respuestas a mano bajo una atenta observación. Mientras tanto, nos preguntamos constantemente qué pasará después.
Muchos estudiantes ven estos grandes modelos de lenguaje como una amenaza para el empleo. Las máquinas han mejorado tanto en programación que los ingenieros noveles no pueden competir realmente. Una licenciatura en informática de Stanford significa hoy algo muy diferente de lo que significaba cuando pisamos el campus por primera vez: ya no hay una garantía efectiva de un puesto de nivel inicial.
Pero para quienes estén dispuestos a crear una empresa con las siglas «IA» en el nombre, existe una vía casi infalible hacia las ganancias económicas. Perplexity, fundada justo cuando yo empezaba mi primer año de universidad, es un ejemplo de startup «de envoltura»; en otras palabras, una empresa que no cuenta con su propia IA patentada y que se limita a reempaquetar modelos existentes con una forma diferente. Se trata de una herramienta de búsqueda que, en esencia, pierde dinero cada vez que un nuevo usuario introduce una consulta. En abril de 2024 alcanzó una valoración de mil millones de dólares; dos meses después, esa cifra se triplicó. En mayo de 2025 anunció que estaba recaudando fondos con una valoración de 14 000 millones de dólares, que había aumentado a 18 000 millones en julio y a 20 000 millones en septiembre.
El dinero en Silicon Valley se ha convertido en un juego de cifras casi sin sentido que se lanzan al aire con una despreocupación asombrosa. Esto contribuye al efecto remolino que los estudiantes de Stanford han sentido en torno a la tecnología y el lucro: si tu compañero de habitación puede dejar la universidad y fundar una empresa de nueve cifras, ¿por qué no ibas a sacar tú también provecho? ¿Por qué dedicar toda tu energía a ser estudiante cuando parece que todo el mundo a tu alrededor se está haciendo rico? Una vez, durante mi segundo año, estaba haciendo los deberes en la sala común de mi residencia con una conocida cuando ella comentó de pasada: «La semana pasada compré una casa en Las Vegas». Y añadió: «Es bueno para los impuestos». Es difícil ponerse los auriculares y volver enseguida a los problemas matemáticos cuando alguien dice algo así.
Sin embargo, los mismos estudiantes que abandonaron Stanford y que parecen ser los que más dinero están ganando en este momento suelen estar trabajando precisamente en la tecnología que está empeorando la vida de sus antiguos compañeros de clase.
Las últimas investigaciones han comenzado a demostrar lo que para la mayoría de la gente resulta obvio: confiar en la inteligencia artificial para tareas cognitivas puede reducir la propia capacidad intelectual y la resiliencia. Una cosa es utilizarla en el ámbito laboral, pero en el aula, la dificultad suele ser precisamente el objetivo. Claro, un robot puede levantar 270 kilos mucho más fácilmente que yo, pero eso no me ayuda mucho si estoy intentando hacer ejercicio. Lo mismo ocurre con el ejercicio mental que supone la educación. Sin embargo, decirles eso a los estudiantes es un mensaje tan atractivo como «come verduras» o «duerme ocho horas». Suena a regaño.
Incluso en el corazón de la utopía tecnológica de Silicon Valley, la mayoría de la gente sabe que nuestra tecnología es mala para nosotros, o al menos que puede serlo. La IA suele suponer un enorme aumento de la productividad, pero mis amigos se refieren cada vez más tanto a los vídeos cortos como a sus registros de chat con IA en términos de adicción. Se está arraigando, moldeando el carácter de nuestra generación. Somos una generación digital, cada vez más apegada al mundo virtual.
La tecnología que hay detrás de la IA es increíblemente ingeniosa, y cuando los grandes modelos de lenguaje aún eran un experimento de investigación —antes de que impulsaran la economía estadounidense—, mis amigos y yo estábamos rebosantes de emoción. Recuerdo intentar explicarle a mi abuelo, que ya ha fallecido, que la «retropropagación», una técnica fundamental para la IA, surgió de los intentos de demostrar cuantitativamente las teorías de Freud sobre el «flujo de energía psíquica». No creo que lograra convencer al abuelo de por qué debía importarle, pero para mí, el desarrollo de la IA era el genio humano en su máxima expresión, y estaba deseando abrir los enlaces de arXiv que la gente me enviaba por mensaje con las últimas y mejores investigaciones. El resultado de un modelo no importaba ni de lejos tanto como cómo se había diseñado.
Ahora ocurre justo lo contrario. La IA es una aplicación en la que la gente realmente confía, y las empresas son cada vez menos transparentes en cuanto a su diseño. Lo que importa es la respuesta inmediata que recibes cuando le envías un texto a ChatGPT para que te lo resuma mientras vas de camino a clase. La mayoría de los estudiantes llaman al modelo de OpenAI «Chat». Muchos se refieren a él de manera familiar, consultando a Chat repetidamente a lo largo del día, dejando que decida cómo enviar un mensaje de texto en una relación ambigua y repitiendo con seguridad afirmaciones alucinadas mientras hacen cola en la cafetería. Durante años, los streamers en línea han utilizado la palabra «Chat» para interactuar con su público, pidiendo a los comentaristas que les digan qué decisiones tomar en los videojuegos. Que los estudiantes utilicen ahora el mismo nombre para la IA parece apropiado. ¿Cuál es realmente la diferencia entre un ser humano sin nombre y sin rostro al que nunca conocerás salvo a través de Internet y una aproximación estadística de lo mismo?
Internet ya nos ha permitido sentirnos más conectados que nunca, al tiempo que nos ha hecho sentir más solos que nunca. La inteligencia artificial nos permite eliminar por completo el componente humano de la interacción humana.
Hace poco, mientras asistía a una clase sobre el amor en la ficción francesa —exactamente el tipo de asignatura que cursa un estudiante de último año antes de que todo llegue a su fin—, escuché la primera presentación de un alumno, titulada: «Aplicación del algoritmo de Gale-Shapley a La princesa de Clèves». Los emprendedores ponentes intentaron resolver los contratiempos de la novela romántica de 1678 mediante un algoritmo informático de emparejamiento. El amor era algo que «debía optimizarse». A mi lado, un estudiante garabateaba en un bloc de notas de la marca Hudson River Trading, una empresa de comercio cuantitativo donde los recién graduados pueden ganar más de 600 000 dólares al año. Otra tenía una pegatina en su portátil: «Practica C.S. segura». La clase no podía haber sido más típica de Stanford.
Vivir en el campus durante los últimos cuatro años ha sido un viaje revelador. La educación superior no estaba preparada para la revolución de la IA. Algún día, en el futuro, los Clawdbots o Moltbots totalmente autónomos (o como quiera que la gente los llame) se reirán entre dientes de este ridículo interregno en el que las universidades parecían paralizadas, tratando de salvar la brecha entre la educación liberal de antaño y el futuro en el que los humanos no tienen el monopolio de la inteligencia.
Para nosotros, esto fue la universidad.
infobae
Recuerda seguirnos en nuestra CUENTA DE WHATSAPP


Comment here