La reciente presentación de ALIA, un proyecto español que pretende avanzar en el desarrollo de inteligencia artificial en castellano y lenguas cooficiales, ha generado una mezcla de entusiasmo y preocupación. Por un lado, esta iniciativa promete fortalecer el uso del castellano en el ámbito tecnológico y contribuir a la soberanía digital del país. Sin embargo, se plantea una pregunta crucial: ¿es realmente necesario que un gobierno tenga control sobre una infraestructura de IA cuando existen tantas soluciones open source disponibles?
ALIA se presenta como una infraestructura abierta y transparente, pero sigue estando bajo la supervisión gubernamental. Esto genera serias preocupaciones, sobre todo en relación a los modelos de lenguaje, que tienen un impacto directo en cómo las personas acceden a la información y moldean sus interacciones digitales. Históricamente, los gobiernos tienden a introducir sesgos políticos o ideológicos en las herramientas que controlan, lo que en tecnologías de IA podría traducirse en un riesgo amplificado. Los modelos entrenados podrían reflejar las prioridades y restricciones del estado, exponiéndose a moderar la información basada más en intereses políticos que en proporcionar datos objetivos.
Frente a esta situación surgen las soluciones open source como una poderosa alternativa. El ecosistema actual de inteligencia artificial ya dispone de una amplia gama de estas soluciones. Proyectos de renombre como Hugging Face, OpenAI en sus inicios, y modelos de organizaciones, tanto académicas como privadas, ofrecen instrumentos potentes que se pueden adaptar a las necesidades de cualquier idioma y contexto. La ventaja de estos sistemas radica en su total transparencia, permitiendo que cualquier persona pueda auditar tanto el código como los datos utilizados en su entrenamiento. Esto contrasta con los sistemas gubernamentales, los cuales podrían estar menos disponibles para el escrutinio público.
Cuando un gobierno controla una infraestructura de IA, se corre el riesgo de centralizar excesivamente el poder en una sola entidad, lo que podría derivar en problemas como la censura y el control de narrativas. Un modelo gubernamental podría priorizar ciertos temas o restringir otros en función de intereses políticos. Además, esto podría afectar la competitividad, desplazando a alternativas privadas u open source, y limitando la diversidad de opciones disponibles. También existe el peligro de que un enfoque gubernamental no alineado con las necesidades reales del mercado sofoque la innovación tecnológica.
El verdadero desafío es avanzar hacia un futuro más descentralizado y colaborativo. La cuestión no es si ALIA puede ser útil, sino si es la mejor manera de crear un ecosistema tecnológico inclusivo y ético. Tal vez sería más eficiente destinar los recursos de ALIA a fomentar y adaptar soluciones open source al contexto lingüístico español, permitiendo una colaboración más inclusiva y menos propensa al control centralizado. Las herramientas open source tienden a ser más inclusivas y permiten contribuciones globales para su mejora, beneficiando a usuarios de diferentes orígenes.
En conclusión, ALIA es un proyecto ambicioso, pero su gestión gubernamental y la posibilidad de centralizar una tecnología tan influyente ameritan un análisis profundo. Mientras las alternativas open source sigan siendo viables, es crucial cuestionar si vale la pena un modelo de IA dirigido por el gobierno, o si sería más sensato invertir en herramientas descentralizadas que reflejen principios de transparencia, imparcialidad e innovación.