1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

  307. Número 307 · Abril 2024

  308. Número 308 · Mayo 2024

  309. Número 309 · Junio 2024

  310. Número 310 · Julio 2024

  311. Número 311 · Agosto 2024

  312. Número 312 · Septiembre 2024

  313. Número 313 · Octubre 2024

  314. Número 314 · Noviembre 2024

  315. Número 315 · Diciembre 2024

  316. Número 316 · Enero 2025

  317. Número 317 · Febrero 2025

Wim Vanderbauwhede / Profesor de Informática en la Universidad de Glasgow

“¿Queremos quemar el planeta para producir ilustraciones baratas con IA?”

Elena de Sus 15/02/2025

<p>Wim Vanderbauwhede. / <strong>Fotografía cedida por el entrevistado</strong></p>

Wim Vanderbauwhede. / Fotografía cedida por el entrevistado

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

Wim Vanderbauwhede es profesor de Informática en la Universidad de Glasgow, donde dirige el grupo de investigación de Informática Sostenible y de Bajas Emisiones.

Ha escrito sobre el elevado consumo de energía de los grandes modelos de inteligencia artificial generativa como ChatGPT, cuya expansión tal y como se está planteando considera que “no nos podemos permitir”. Recientemente, se ha mostrado escéptico con la idea de que los avances en eficiencia puedan producir un descenso de las emisiones de esta industria.

Atiende a CTXT por videollamada.

Investiga sobre la informática de bajo consumo. ¿Cómo empezó a interesarse por esta cuestión?

Estoy concienciado sobre el cambio climático desde hace mucho. Al fin y al cabo, esto no es nada nuevo. Nací en Bélgica y cuando vivía allí, hacía trabajo voluntario en una organización ecologista.

Nuestro modelo social está pensado para animarnos a usar más recursos y más energía, pero ese no es un modelo sostenible

En mi carrera académica, me he centrado en mejorar la eficiencia de los ordenadores. Pero se sabe desde hace mucho que si mejoras la eficiencia de algo, normalmente pasa a ser más barato, así que la demanda aumenta y como hay más demanda, las emisiones de carbono aumentan, no disminuyen.

Toda la historia de la Revolución Industrial ha sido una historia de mejora de la eficiencia. El aumento en la eficiencia de la máquina de vapor nos llevó a quemar muchísimo carbón.

Los ordenadores son, literalmente, millones de veces más eficientes que en los años treinta o cuarenta del siglo XX. Pero eso ha hecho que su uso sea ubicuo. Así que las emisiones totales de la computación han crecido a pesar de todas las mejoras en eficiencia.

Tenía este conflicto con el trabajo sobre la eficiencia y quería contribuir a la sostenibilidad de una forma más amplia. Hace unos años tuve la oportunidad de iniciar una nueva actividad investigadora en el departamento donde trabajo, con el apoyo del jefe de departamento, y así se creó el grupo de Informática Sostenible y de Bajas Emisiones.

El término que uso cuando doy charlas es informática frugal. El mensaje de la informática frugal es que debemos usar menos recursos informáticos, igual que debemos usar menos de cualquier recurso si no queremos un cambio climático catastrófico.

No deberíamos perseguir el crecimiento entendido como crecimiento del consumo de recursos y energía porque eso es destructivo. Nuestro modelo social está pensado para animarnos a usar más recursos y más energía, pero ese no es un modelo sostenible.

El bitcoin no es una moneda viable para un Estado nación

Sin embargo, desarrollos recientes como la IA generativa y el bitcoin requieren mucha energía.

En algún momento, antes de que empezara la fiebre de la IA, tuvimos la burbuja del bitcoin y parecía que el bitcoin iba a consumir una gran cantidad de recursos. Pero el bitcoin no es una moneda viable para un Estado nación. El exministro de Finanzas griego, Yanis Varoufakis, ha escrito mucho sobre ello. Si hace falta alguna prueba, El Salvador ha abandonado el bitcoin como moneda nacional. Esto significa que el bitcoin y sus derivados seguirán siendo populares en algunos círculos, pero no crecerán demasiado. Por lo tanto, sus emisiones tampoco aumentarán mucho. Además, otras criptomonedas como Ethereum, basadas en el protocolo proof of stake, en lugar de proof of work, han crecido en popularidad. Su huella de carbono es 100 veces menor. Así que las emisiones de las criptomonedas no han experimentado un crecimiento espectacular, y el actual nivel de emisiones no es terrible. Si sigue así no será un gran problema. 

La IA generativa es diferente porque cuenta con el apoyo de muchos gobiernos. Todo el mundo parece creer que es mágica y que creará un crecimiento ilimitado. O igual no lo creen, pero actúan como si lo creyeran. Por lo tanto, es un impulso importante para producir más chips, más centros de datos y generar más electricidad. En este momento, el 70% de la electricidad sigue procediendo de combustibles fósiles. Así que vamos a quemar más carbón.

¿Entonces el problema es el apoyo estatal a la IA?

El apoyo estatal retrasa el proceso. Las burbujas normalmente explotan solas porque la gente empieza a darse cuenta de que no hay nada ahí. Pero si los gobiernos piensan que esto es una buena idea, invertirán en ello y estas inversiones se llevarán a cabo incluso si la gente ya se está dando cuenta de que no vale la pena, porque las instituciones son lentas. Así que todo se retrasa. Y con ese retraso, por supuesto, se generan más emisiones.

Hoy en día es muy difícil lograr crecimiento económico. Y si crees que tienes que conseguirlo, cualquier cosa que prometa ese crecimiento te va a interesar. El gobierno del Reino Unido, por ejemplo, es así. También el de los Estados Unidos. Piensan que la IA les va a dar crecimiento, así que están dedicando inversiones a esa área y esas inversiones se producirán aunque la burbuja reviente este año. Y por supuesto, si el gobierno está diciendo que la IA es buena, es mucho más difícil para una persona corriente decir que la IA es mala.

Con el lanzamiento de los modelos de IA generativa de la empresa china DeepSeek, más eficientes, parece que la burbuja ha reventado. Al menos, las acciones de Nvidia han caído y ha habido mucho debate sobre el hecho de que quizás no tenga sentido una inversión tan grande en centros de datos.

He estado analizando la información que DeepSeek ha querido facilitar. 

Para empezar, la narrativa de que han tenido que usar GPUs de menor rendimiento por las restricciones a las exportaciones del gobierno estadounidense es falsa. Voy a explicar por qué es falsa.

Para cumplir con las restricciones a las exportaciones de 2022, Nvidia creó una serie especial de GPUs para el mercado chino que rinden peor en un apartado específico. Se llama rendimiento de punto flotante de doble dirección. Pero la IA no necesita rendimiento de punto flotante de doble dirección.

Lo necesitan los superordenadores que hacen cálculos científicos. Pero los chinos han producido sus propios superordenadores para cálculos científicos, no están comprando GPUs de Nvidia para eso. Las están comprando para la IA, y para la IA esto es irrelevante.

Los modelos de IA de OpenAI, Google y las demás empresas estadounidenses funcionan con unas GPUs de Nvidia llamadas A100. Para entrenar estos modelos, usan unas superiores llamadas H100.

Para el mercado chino, Nvidia vendía las equivalentes A800 y H800 [Nota: Estados Unidos también prohibió la exportación de estas al año siguiente, en 2023]. En su paper, DeepSeek dice que su modelo funciona con la H800. La H800 es superior a la A100 en casi todos los aspectos, solo es un poco peor en conectividad. Así que si combinas varias de estas GPUs en una red, el ancho de banda de la red es menor, y en el paper DeepSeek explica cómo resolvieron esto. Es una muestra de buena ingeniería, pero no te da un gran beneficio.

Así que no estamos hablando de una capacidad de cómputo restringida. Esto es tope de gama. Es mejor que lo que usan la mayoría de las empresas en sus centros de datos ahora mismo. 

Si el precio de DeepSeek es competitivo, más gente lo usará. Así que es probable que el resultado no sea una reducción del consumo energético

DeepSeek ha sido muy listo con dos cosas. Han lanzado una app que le ha gustado a la gente. Su precio es competitivo. Y tienen un montón de modelos más pequeños de código abierto con los que la gente puede jugar. Y creo que esto es en lo que se han fijado los medios, pero tampoco es nuevo. Meta ya había lanzado modelos más pequeños de código abierto con Llama. No son realmente de código abierto, ni unos ni otros, porque los datos que han utilizado no son públicos, pero este es otro tema. 

El caso es que el modelo que hace las inferencias principales no es tan pequeño. En comparación con GPT4, por ejemplo, DeepSeek ha conseguido utilizar menos parámetros al mismo tiempo en un momento determinado, así que su modelo será un poco más eficiente energéticamente. 

La idea es ingeniosa, han demostrado que funciona y eso es bueno. Pero volvemos al mismo problema. Si su precio es competitivo, más gente lo usará. Así que es probable que el resultado no sea una reducción del consumo energético. Puede ser un aumento si la empresa se hace muy grande.

Se ha puesto mucho el foco en el coste de entrenar estos modelos de IA generativa, pero usted ha escrito que el coste de usarlos es mucho mayor.

Sí. Eso es cierto tanto si hablamos de costes ambientales como de costes financieros. No soy el único que ha escrito sobre esto. Mucha gente está observando que el coste económico del entrenamiento está pasando a ser anecdótico. Yo lo he calculado.

Los costes de inferencia [uso] escalan con el número de usuarios. Los costes de entrenamiento solo escalan si haces un modelo más grande. Aquí es probablemente donde DeepSeek ha sido más inteligente porque su clúster de GPUs no es muy grande, se las arreglaron para entrenar el modelo en un clúster más pequeño, ya que es una empresa pequeña. Eso les permite ahorrar en el coste inicial. Pero si se convierten en una gran empresa, van a necesitar muchos centros de datos para responder a todas las consultas de los usuarios. Ese será el coste dominante.

Hace unos años, los costes de entrenamiento eran mucho más altos porque los modelos se entrenaban de forma poco eficiente. No sabían cómo hacerlo bien. Así que necesitaban muchos recursos para obtener un modelo no muy bueno, y seguramente tenían que repetir los procesos. Pero ahora los costes de la inferencia son los dominantes, definitivamente. Y también las emisiones derivadas de la inferencia.

¿Piensa que los mercados han reaccionado al lanzamiento de DeepSeek de forma exagerada?

Absolutamente, sí. Sobre todo los mercados estadounidenses porque esto viene de China y están asustados. Pero pienso que Nvidia no debería preocuparse.

Quiero decir, por las razones que he explicado, sus ventas dependen más del hecho de que la gente proyecta un crecimiento enorme de la IA.

No es posible multiplicar la producción de semiconductores por 100 y es probable que toda esta gente lo sepa

Los CEOs de las grandes empresas han estado diciendo que necesitan multiplicar por 100 la fabricación de chips en los siguientes diez años o así. Esas cosas han hecho que las acciones suban. El problema es que los centros de datos ya se están construyendo. Y también las centrales eléctricas para darles suministro porque un centro de datos necesita electricidad en cuanto esté construido. 

Así que incluso si nada de esto llega a suceder con la IA, habrán empezado a construir y después querrán usar esas infraestructuras porque si no, habrán hecho un muy mal negocio. Ese es el daño que creo que se está haciendo.

No es posible multiplicar la producción de semiconductores por 100 porque, como mucho, podemos multiplicar la capacidad de minado de los materiales necesarios por dos. Así que esto no va a pasar. Y es probable que toda esta gente lo sepa.

¿Puede que todo el mundo sepa que es una burbuja?

Sí. Pero hace mucho daño porque da a la industria de los combustibles fósiles la excusa perfecta para producir más, por toda la energía que dicen que hará falta para algo que probablemente nunca va a ocurrir.

Antes de que existiera la IA generativa, la gente no deseaba tenerla. Ha sido un empuje tecnológico, no un tirón del mercado

Usted considera que estos grandes modelos de lenguaje no valen la pena, ¿verdad? Incluso si son útiles para algunas cosas.

Sí, personalmente pienso que la IA generativa que está siendo impulsada por OpenAI y el resto de compañías que compiten con ellos no es muy útil. Quiero decir, es útil para escenarios específicos, pero cuando tienes un escenario específico puedes usar un modelo mucho más pequeño para hacer lo mismo.

Tenemos estos grandes modelos que pueden hacer de todo para todo el mundo desde 2020 o así, y la productividad global definitivamente no ha crecido.

Las empresas que usan Copilot y otros grandes modelos de lenguaje para programar ven que es problemático, porque es mucho más difícil debuguear [corregir] código que no ha sido escrito por tus propios desarrolladores, sino por una máquina. Puedes pensar que el código se escribirá más rápido porque lo hace la máquina, pero la máquina no garantiza que sea correcto. No puede. Un modelo de lenguaje de IA generativa no tiene noción de lo que significan las cosas. 

Y hay muchas cosas así. Si te fijas en la IA que genera imágenes, puede parecer brillante, pero en realidad es mediocre. No puede sustituir a los buenos ilustradores porque quien quiera una ilustración de calidad no puede usar eso. ¿Queremos quemar el planeta para producir ilustraciones baratas?

Antes de que existiera la IA generativa, la gente no deseaba tenerla. Ha sido un empuje tecnológico, no un tirón del mercado. El problema es que al crear esta tecnología creamos una gran cantidad extra de emisiones en un momento en el que no podemos permitirnos eso. Las emisiones deben bajar. Si la IA generativa es útil o no es irrelevante. Podría ser extremadamente útil, pero si aun así hace que el planeta arda, no es buena.

Y según mis cálculos, si las proyecciones de estos hombres de negocios se hicieran realidad, la IA por sí sola sería suficiente para saltarnos todos los objetivos climáticos. Como he dicho, es muy improbable que esto pase. Pero están diciendo que no les importaría que pasara. Y no nos podemos permitir ese aumento de las emisiones.

Simple y llanamente.

Podemos permitirnos modelos más pequeños. En informática, hacemos una gran distinción entre lo que preferimos llamar machine learning y lo que se está llamando IA, que normalmente es IA generativa.

El modelo puntero en detección de cáncer de colon, con un 99% de acierto, tiene 7,6 millones de parámetros, mientras GPT4 tiene más de un billón

De acuerdo. Creo que hay mucha confusión con esto. ¿Podría explicar cuál es la diferencia?

El gobierno del Reino Unido también comete este error. Hablan de que la IA puede hacer grandes cosas como detectar un cáncer en una imagen de una resonancia magnética o en una radiografía y por lo tanto, debemos construir más centros de datos para la IA generativa. Pero SegNet, el modelo puntero en detección de cáncer de colon, con un 99% de acierto, tiene 7,6 millones de parámetros, mientras GPT4 tiene más de un billón. 

Esto supone que SegNet utiliza 100.000 veces menos energía que GPT4. Puede funcionar en un PC en el hospital. No necesitas construir ningún centro de datos para obtener mejores diagnósticos. Solo unos pocos servidores en hospitales. 

¿Y qué es lo que tienen en común entre esas diferentes cosas que llamamos IA?

La mayoría de los modelos hoy en día utilizan redes neuronales. Una red neuronal es una abstracción inspirada en el cerebro en la que, esencialmente, cada neurona recibe unas señales o inputs, que son números, los multiplica por pesos y luego los suma y luego normaliza el resultado y lo envía a otra neurona. Y si haces eso el suficiente número de veces, obtienes algo que puede hacer extrapolaciones en un espacio de parámetros muy amplio. Así que se le da muy bien… vamos a decir adivinar cosas, pero es hacer aproximaciones estadísticas.

El modelo que se usa para detectar cánceres es una red neuronal convolucional. Esas son las que se usan para imágenes. Las que se usan para textos se llaman redes neuronales recurrentes. En una imagen, los píxeles están uno junto a otro. En un texto, las palabras van una detrás de otra. Los grandes modelos de inteligencia artificial generativa son versiones mucho más avanzadas de estos dos tipos de redes neuronales.

No es lo mismo un modelo que detecta un patrón en una imagen que un modelo generativo que tiene que producir un texto o una imagen nueva. Eso es más trabajo. Por eso los modelos generativos son más costosos en términos energéticos, porque tienen que hacer más cálculos.

Si le das a un modelo de IA contenido generado por IA, tiende a empeorar su rendimiento muy rápido. Se llama envenenamiento

He leído que podríamos estar alcanzando un límite en los datos disponibles para entrenar estos grandes modelos, que ya no se pueden encontrar muchos más. No sé si eso es cierto.

Es peor que eso. Ahora hay mucho contenido generado con IA en internet. Esta no es mi especialidad, pero se ha demostrado que si le das a un modelo de IA contenido generado por IA, tiende a empeorar su rendimiento muy rápido. Se llama envenenamiento. No es fácil de evitar porque los bots que scrapean internet [programas que recogen datos de las páginas web, en este caso para entrenar la IA] no pueden distinguir si una página ha sido generada por IA o no. Eso significa que los mejores datos para modelos generalistas serán los previos a 2022.

Además, no puedes seguir haciendo modelos más grandes, tienes que empezar a hacer cosas como lo que ha hecho DeepSeek. De hecho, OpenAI ya estaba haciendo cosas similares. Tiene un modelo con 1,76 billones de parámetros, pero solo usa 200.000 millones al mismo tiempo. Simplemente porque no es posible acceder a todos a la vez. DeepSeek ha demostrado que se puede hacer bien con menos aún.

En cualquier caso, no puedes seguir haciéndolos más grandes y esperando que su funcionamiento mejore porque hay límites tanto en la calidad de los datos como en la ingeniería necesaria. Así que sí, los resultados probablemente empezarán a estancarse, no llegarán a ser mucho mejores. 

No hay ninguna posibilidad de que un generador de patrones estadísticos se vuelva inteligente

Entonces la idea de que podemos alcanzar una inteligencia artificial general a partir de estos modelos…

Eso es absurdo. Quienes promueven esa idea saben que es una distracción. Se dedican a decir “oh, la inteligencia artificial general será muy peligrosa y tenemos que adoptar todo tipo de salvaguardas para asegurarnos de que si tenemos una, se comporte correctamente”. Esa es la distracción perfecta para no tener que preocuparnos de las verdaderas consecuencias negativas de estos productos.

No hay ninguna posibilidad de que un generador de patrones estadísticos se vuelva inteligente. No hay nada en esos modelos que de verdad imite a la inteligencia.

Llevamos más de 50 años pensando en la inteligencia artificial. Muy profundamente. Y creo que cualquiera que se haya dedicado a ello estaría de acuerdo en que los modelos de IA generativa o cualquier cosa que ahora llamemos IA no son del tipo que nos llevaría a un software autoconsciente.

Parecen inteligentes porque todo lo que sabemos está ahí. Se ha introducido un resumen de todo el conocimiento que el ser humano ha puesto online en esos modelos. Así que tienen una aproximación de todo.

Wim Vanderbauwhede es profesor de Informática en la Universidad de Glasgow, donde dirige el grupo de investigación de Informática Sostenible y de Bajas Emisiones.

Ha escrito sobre el elevado consumo de energía de...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes iniciar sesión aquí o suscribirte aquí

Autora >

Elena de Sus

Es periodista, de Huesca, y forma parte de la redacción de CTXT.

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

3 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. José H.

    Interesante y clarificadora la entrevista sobre la IA.

    Hace 1 día

  2. Julio S.

    Un poco de luz en el enorme bombardeo de información interesada son IA. Interesante el concepto de burbuja aplicado a la "inteligencia" artificial.

    Hace 3 días

  3. Marcoafrika

    No está mal que un buen técnico nos despeje incógnitas o noticias falsas y exageradas sobre la utilización de la IA, una pena que tantos especuladores de la catástrofe no prefieran documentarse sobre las verdaderas causas de la susodicha catástrofe, a saber: la ignorancia sobre los límites de recursos naturales que nuestra especie parece considerar infinitos, las guerras promovidas por el capital, ese paradigma homicida y suicida, etc...Gracias Elena de Sus por esta entrevista.

    Hace 4 días

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí