La inteligencia artificial se concentra en manos de 7-8 corporaciones privadas que controlan la infraestructura, definen los algoritmos y deciden quién tiene acceso. Gobiernos y organismos internacionales advierten que esta concentración amenaza educación, empleo y democracia, impulsando regulaciones como el AI Act europeo y nuevas leyes en América Latina para recuperar control público.
En 30 segundos
- Microsoft, Google, Meta, Nvidia y Amazon controlan hoy ~80% de la inversión global en IA y la infraestructura cloud que la sostiene
- El AI Act europeo (vigente desde agosto 2025) prohíbe usos de IA privados en educación, empleo y servicios públicos sin auditoría pública y transparencia
- Argentina legisló (2024) sobre gobernanza de IA con representación igualitaria público-privada, siendo el primer país de la región en regularla
- Automatización bajo control privado maximiza lucro y despidos; bajo control público busca reentrenamiento laboral y distribución equitativa
- Educación dirigida por corporaciones privadas amplía brechas digitales y captura generaciones con sesgos algorítmicos no auditados
Qué es el control público de la inteligencia artificial
El control público de la infraestructura de IA significa que gobiernos e instituciones públicas —no corporaciones privadas— definen cómo se desarrollan, despliegan y regulan los sistemas de inteligencia artificial en sectores críticos como educación, salud, empleo, justicia y administración pública. Es distinto a “prohibir la IA privada”: se trata de que decisiones estratégicas sobre tecnología que afecta a poblaciones enteras no queden bajo criterios de maximizar ganancia accionaria.
El monopolio invisible: quién controla la IA hoy
Fijate en esto: mientras la mayoría de la gente discute si ChatGPT o Claude son mejores, lo que nadie ve es que ambas compañías (OpenAI y Anthropic) dependen de infraestructura que controla Microsoft o Google. Los servidores están en data centers de Amazon o Microsoft. El acceso a GPUs Nvidia (las únicas que entrenan modelos grandes rápidamente) pasa por ellas. La realidad es que concentración en IA no es accidental: nació en corporaciones, no en universidades como Internet.
Según análisis de capitalización de mercado y gastos en investigación, siete empresas dominan: Microsoft (USD 3.4 billones de market cap), Google/Alphabet (USD 2.2 billones), Meta (USD 1.3 billones), Nvidia (USD 3.1 billones en 2024), Amazon (USD 2.1 billones), Apple y Oracle. Entre ellas controlan más del 80% de la inversión global en desarrollo de modelos grandes.
Lo que viene es peor. Estas empresas no solo construyen modelos, definen estándares: qué es una “IA segura”, qué pasa con los datos de entrenamiento, a quién se le da acceso a API, cuánto cuesta. Vos no tenés opción. Si querés usar el modelo más performante, negociás con ellas o no usás nada.
Por qué la infraestructura de IA debe ser controlada públicamente
Ponele que mañana Google decide que su modelo de IA ya no procesa preguntas sobre “regulación laboral” porque afecta a sus clientes corporativos. ¿Vos qué hacés? Bajás una ley que lo obligue a procesar, sí, pero dependés del capricho de una corporación estadounidense sobre tecnología crítica para tu país. Eso no pasa con electricidad, agua, educación, justicia: son servicios públicos porque son derechos, no productos. Te puede servir nuestra cobertura de infraestructura corporativa controlada por Microsoft.
La UNESCO publicó en 2024 una recomendación global sobre ética en IA donde subraya que gobiernos deben garantizar acceso equitativo, transparencia y auditoría de sistemas que afecten derechos humanos. La Unión Europea fue más lejos: en lugar de “dejar que el mercado decida”, decidió que el sector público tiene requisitos más estrictos que el privado en cuanto a auditorías, explicabilidad y monitoreo.
Los argumentos clave:
- Bien común, no ganancia: educación, salud y justicia no maximizan lucro bajo control privado; maximizan cobertura bajo control público
- Transparencia y auditoría: gobiernos pueden publicar cómo funciona un algoritmo de selección de estudiantes; corporaciones no lo hacen porque es secreto comercial
- Equidad de acceso: una startup de provincia tiene acceso a IA pública al mismo costo que una de Capital Federal; acceso privado cuesta dinero que no todos tienen
- Soberanía de datos: datos de ciudadanos no migran automáticamente a servidores externos; quedan bajo jurisdicción local
Educación bajo control privado: la brecha que se amplía
Mirá los números: en 2025-2026, empresas como OpenAI, Google y otros empezaron a ofrecer “soluciones educativas basadas en IA” a escuelas. Suena lindo hasta que preguntás quién decide el contenido que el modelo recomienda. Respuesta: el algoritmo entrenado con datos sesgados, sin auditoría pública, sin que padres sepan qué está aprendiendo su hijo.
Un caso concreto: un modelo privado usado en selección de estudiantes de una universidad estadounidense favoreció candidatos de familias ricas porque el dataset de entrenamiento provenía de 20 años de admisiones donde abundaban hijos de padres ricos. El modelo “aprendió” el sesgo. La universidad lo detectó de casualidad; cuántas otras instituciones usan modelos similares sin siquiera auditarlos.
En educación bajo control público, gobiernos pueden —y deben— exigir: datasets públicos, auditorías de sesgo periódicas, explicabilidad de decisiones, recuso. En educación privada, “confía en que hacemos lo correcto” es la regla.
La brecha se amplía porque acceso a herramientas premium de IA cuesta dinero. Una escuela de zona norte de Buenos Aires paga a OpenAI por acceso a tutores IA; una escuela de zona sur no puede pagar. Generación que estudia con IA premium vs. generación que estudia con lo que el sector público puede financiar. Eso es desigualdad estructural.
El factor trabajo: automatización bajo control público versus privado
Acá es donde duele. Una empresa privada usa IA para automatizar tareas: despide 30% de su equipo, aumenta margen operativo, accionistas ganan. El trabajador quedó sin laburo. Si la automatización fuera bajo control público, la pregunta sería distinta: “¿Cómo reentrenamos a esas personas para roles de mayor valor?”, “¿Cómo se distribuyen las ganancias de eficiencia entre trabajadores y empresa?” Complementá con cómo OpenAI maneja ChatGPT.
Argentina enfrentó esto hace poco. En 2024-2025, varios call centers locales (BPO) empezaron a usar IA para responder consultas simples. Privadamente, la decisión fue obvia: menos empleados, mismo volumen, ganancia neta. Publicamente, hubiera sido “implementamos IA pero mantenemos empleo: reconvertimos agentes a roles de supervisión, generamos 20 nuevos puestos en entrenamiento de modelos”.
Europa reguló esto explícitamente: cuando sector público usa IA para automatizar procesos administrativos, debe publicar el impacto laboral estimado y capacitar a trabajadores desplazados. Sector privado no está obligado a nada. Resultado: mercado laboral más inequitativo.
El AI Act europeo: regulación del sector público primero
Agosto 2025 fue crucial: el AI Act europeo entró en vigor. Su quid está acá: prohibiciones y requisitos MÁS estrictos para sector público que para sector privado. Contraintuitivo, pero tiene lógica.
Prohibiciones en sector público (directamente bloqueadas):
- Reconocimiento facial en tiempo real en espacios públicos (sin consentimiento previo)
- Algoritmos de “puntuación social” o “credit scoring” automático
- Análisis de emociones para perfilar delincuencia antes de que suceda
- Procesos de selección educativa o laboral 100% automatizados sin intervención humana
Requisitos en sector público (si usas IA permitida):
- Impacto Assessment obligatorio antes de desplegar: evaluar sesgo, discriminación potencial, derechos afectados
- Transparencia radical: explicar públicamente cómo funciona el sistema
- Auditoría anual por terceros independientes
- Acceso ciudadano a recuso si un algoritmo afecta derechos (crédito denegado, beca rechazada, etc.)
Sector privado tiene requisitos también, pero menos strictos: documentar sistemas de alto riesgo, permitir auditoría externa, comunicar riesgos. Pero no prohibiciones categóricas.
¿Por qué? Porque gobierno es coercitivo: una decisión estatal te afecta sin opción. Corporación privada podés (en teoría) evitarla. Eso requiere regulación diferenciada.
Argentina y América Latina: nuevo marco regulatorio regional
Argentina no esperó a Europa. En 2024, el Congreso Nacional debatió y aprobó un proyecto de ley sobre gobernanza de IA con representación igualitaria: gobiernos, sector privado, academia y sociedad civil en el mismo consejo de decisión. Primer país de América Latina en legislar explícitamente.
Lo interesante es que Argentina no copió el AI Act europeo directamente. Adaptó: consideró contexto local (capacidad técnica menor, menos recursos), incluyó representación de universidades nacionales (CONICET, UBA) en auditorías, y creó provisiones para que startups locales accedan a datos sintéticos generados públicamente (en vez de tener que entrenar con datos privados).
España fue más lejos aún: creó la Agencia Española de Inteligencia Artificial (AEIA) como organismo específico de supervisión. No solo regula, sino que desarrolla estándares, audita activamente, genera recomendaciones. Es la primera agencia regional dedicada exclusivamente a esto.
El patrón regional es claro: “No dejamos que gobiernos pasen solos, ni que privados hagan lo que quieran.” Hay tensión productiva, donde ambos sector están en la mesa. En modelos GPT bajo control privado profundizamos sobre esto.
Riesgos democráticos de la concentración privada
Acá voy a ser directo: concentración privada de IA amenaza democracia. No es hiperbólico, es dato.
Un sistema privado de recomendación algorítmica (como el de Meta o TikTok) decide qué ve cada persona. Eso ya pasó: en elecciones de 2020 y 2024, algoritmos privados amplificaron desinformación sin que gobiernos tuvieran forma legal de detenerlo. ¿Por qué? Porque la empresa dice “es nuestro algoritmo, nuestro código, secreto comercial”. No auditás lo que no ves.
Caso concreto: en 2024, investigadores independientes mostraron que el algoritmo de TikTok amplificaba contenido que favorecía a ciertos candidatos en varias democracias. TikTok respondió que “eso no es cierto, confíen en nosotros”. Fin de la historia. Si hubiera sido auditoría pública, la respuesta habría sido “acá están los logs, acá está el código, ves cómo funciona”.
Otro riesgo: sesgo en decisiones críticas. Un banco privado usa un modelo de IA (entrenado con datos históricos) para decidir a quién dar crédito. Si históricamente personas de ciertas comunidades tuvieron acceso limitado, el modelo aprende eso como “normal” y sigue discriminando. Si la decisión fuera pública, reguladores exigen análisis de sesgo antes de usar el modelo.
Tercer riesgo: opacidad. Corporaciones privadas no publican cómo entrenan, qué datos usan, qué sesgos tienen sus modelos. El “secreto comercial” es escudo perfecto. Google, OpenAI, Meta nunca van a abrir el código de sus modelos clave. Si infraestructura de IA fuera pública, eso sería delito.
Comparativa: control público vs. privado en cuatro ejes
| Eje | Control Privado | Control Público |
|---|---|---|
| Auditoría | Opcional. Empresa decide si audita y qué publica. | Obligatoria. Acceso público a resultados. |
| Acceso | Basado en precio. Quien paga, accede. Quien no, queda afuera. | Basado en derecho. Todos acceden igual, financiado con impuestos. |
| Decisiones clave | Accionistas y CEO. Velocidad de lucro como criterio. | Representación multi-actor. Beneficio público como criterio. |
| Transparencia | Nula. “Secreto comercial” cubre todo. | Radical. Ciudadanos pueden ver cómo funciona. |
| Sesgo | Se detecta si hay denuncia y lawsuit. Lento, costoso. | Se audita proactivamente. Corrección antes de implementar. |

Errores comunes en este debate
“El control público va a frenar la innovación”
Falso. Europa tiene regulación más estricta que EE.UU. en datos y privacidad desde 2018 (GDPR) y sigue siendo potencia tecnológica: Spotify, SAP, Siemens siguen innovando bajo regulación. Lo que frena es innovación nociva. Corporaciones confunden “permitir lo que queramos” con “innovar”. No es lo mismo. Ya lo cubrimos antes en el modelo Gemini controlado por Google.
“¿Quién va a desarrollar los modelos si no es privado?”
Sector público. Eso ya está pasando: Argentina está entrenando un modelo de lenguaje propio (en colaboración con universidades), China desarrolla sus propios modelos sin depender de OpenAI, Europa impulsa iniciativas como LAIA (Large AI Models for Europe). No es más lento, es diferente: menos branding, más sustancia.
“La IA privada ya está funcionando bien, ¿para qué cambiar?”
Está funcionando bien para corporaciones. Para ciudadanía: desinformación amplificada por algoritmos privados, sesgo en crédito y empleo que no podés auditar, educación desigual según capacidad de pago. Si creés que “bien” es “corporaciones ganan dinero”, claro que funciona. Si “bien” es “todos acceden equitativamente”, funciona para el 20% que puede pagar.
Preguntas frecuentes
¿Qué significa que la IA sea “pública”?
Que la infraestructura crítica (servidores, modelos de lenguaje usados en educación/justicia/salud, datasets) sea propiedad estatal o gestionada por gobiernos con supervisión pública. No que todos construyan modelos IA en casa. Significa: acceso sin costo, auditoría pública, decisiones democráticas sobre su uso.
¿El AI Act europeo prohíbe toda IA en sector público?
No. Prohíbe usos de alto riesgo sin garantías. Permite IA para tareas administrativas (procesar documentos, clasificar trámites) si hay auditoría. Prohíbe decisiones que afecten derechos (selección de estudiantes, denegación de crédito) sin intervención humana y recuso disponible.
¿Argentina ya tiene control público de IA?
Parcialmente. El marco normativo de 2024 establió gobernanza con representación pública, pero la infraestructura sigue siendo mayormente privada (empresas usan OpenAI, Google). Argentina está desarrollando capacidad propia, pero es un proceso de 3-5 años. Entretanto, regulación + auditoria son el puente.
¿Quién paga la IA pública si no genera ganancia?
Impuestos. Como educación, salud, justicia. El retorno no es ganancia accionaria, es ciudadanía más educada, menos desigualdad, menos desinformación. ROI es social, no financiero. Si todo lo que no genera dividendo quedara privado, no habría universidad pública.
¿Cómo se audita un modelo de IA público?
Técnicamente: analizando datasets (¿qué datos entrenaron el modelo?), probando sesgo (¿favorece ciertos grupos?), verificando explicabilidad (¿por qué decidió X?), examinando logs (¿quién accedió?). Públicamente: reportes transparentes, acceso a ciudadanos para cuestionar decisiones, auditorías por terceros independientes. Privado: “confía en nosotros, es secreto”.
Conclusión
El argumento de fondo no es “la IA privada es mala” sino “infraestructura crítica para democracia no puede estar bajo control privado”. Educación, justicia, empleo: son derechos, no commodities. Cuando la tecnología que los sustenta está en manos de corporaciones que responden accionistas, no ciudadanos, pasa lo que está pasando: desigualdad amplificada, opacidad sistémica, sesgo sin rendición de cuentas.
Europe lo entendió con el AI Act. Argentina avanzó con legislación regional. Ahora falta la parte difícil: construir infraestructura pública real. No es imposible. Está pasando. Pero requiere decisión política sostenida, inversión en ciencia y tecnología local, y disposición de gobiernos a competir en gobernanza de IA, no solo a Regular lo privado.
Vos, como usuario, tomador de decisiones o trabajador: tenés que empezar a preguntar. ¿Quién decide si usamos IA en educación de tus hijos? ¿Quién audita el algoritmo que deniega tu crédito? ¿Quién controla los datos que se usan para entrenar? Si la respuesta es “una corporación privada, secreto comercial”, tenés un problema de democracia. Regulación y control público no son lujo, son necesidad.
Fuentes
- Gobierno de Argentina – Inteligencia Artificial: gobernanza y regulación
- Estrategia Digital Europea – Enfoque europeo a la inteligencia artificial (AI Act)
- Agencia Española de Protección de Datos – Agencia Pública de IA
- UNESCO – Recomendación sobre Ética de la Inteligencia Artificial
- Ministerio de Transformación Digital de España – Regulación y gobernanza de IA (2025)
