Definición de Informática

La informática puede entenderse como el campo del conocimiento que se ocupa del procesamiento automático de la información mediante sistemas computacionales, integrando tanto los principios teóricos del cálculo como las aplicaciones prácticas de programación, almacenamiento y transmisión de datos en formato digital. Su nombre es, en sí mismo, una pieza curiosa de la historia lingüística. A diferencia de disciplinas cuya denominación se remonta al griego o al latín clásico, la informática nació como un sincretismo del siglo XX: en 1957, el científico alemán Karl Steinbuch utilizó la palabra Informatik en su publicación Informatik: Automatische Informationsverarbeitung (procesamiento automático de información), y en 1962 el ingeniero francés Philippe Dreyfus la adaptó al francés como informatique, fusionando las palabras information y automatique.

Es significativo que el mundo anglosajón haya tomado otro camino: la empresa estadounidense Informatics General Inc. registró el término en 1962 y persiguió legalmente a universidades que intentaban usarlo, forzando la adopción de computer science, según documenta Paul Ceruzzi en A History of Modern Computing (MIT Press, 1998). Mientras la tradición latina pone el acento en aquello que se transforma — la información —, la anglosajona lo deposita en el instrumento — la computadora —, una diferencia que no es solo terminológica sino filosófica.

Dos papers que fundaron una civilización

Si hubiera que señalar el momento en que la informática dejó de ser una intuición dispersa para convertirse en un campo con fundamentos propios, ese momento se compone de dos publicaciones separadas por doce años. La primera es On Computable Numbers, with an Application to the Entscheidungsproblem, presentada por Alan Turing ante la London Mathematical Society en 1936, cuando tenía veinticuatro años. Turing buscaba responder a un desafío formulado por David Hilbert en 1928: ¿existe un procedimiento mecánico capaz de determinar la verdad o falsedad de cualquier proposición matemática? Para contestar, necesitaba definir con precisión qué significa «calcular». Su respuesta fue una máquina imaginaria — una cinta infinita, un cabezal de lectura y escritura, un conjunto finito de estados — que, como describe Charles Petzold en The Annotated Turing (Wiley, 2008), no pretendía ser un artefacto construible sino una formalización del acto humano de computar. El resultado fue doble: demostró que hay problemas matemáticos que ningún procedimiento puede resolver, y estableció que una sola máquina suficientemente general podría ejecutar cualquier cálculo definible por reglas. Alonzo Church bautizó este concepto como «Máquina de Turing» en su reseña del mismo año, y desde entonces constituye la definición estándar de computabilidad.

La segunda publicación es A Mathematical Theory of Communication, de Claude Shannon, aparecida en el Bell System Technical Journal en julio y octubre de 1948. Donde Turing había formalizado el cálculo, Shannon formalizó la comunicación. Propuso que cualquier mensaje podía reducirse a una secuencia de dígitos binarios — acuñando la palabra «bit», sugerida por su colega John Tukey — y demostró que todo canal de comunicación posee una capacidad máxima de transmisión, hoy conocida como «límite de Shannon». La revista Scientific American calificó este paper como la «Carta Magna de la Era de la Información», y el historiador James Gleick, en su libro The Information: A History, a Theory, a Flood (Pantheon, 2011), sostuvo que fue el acontecimiento intelectual más importante de 1948, situando incluso la invención del transistor en segundo lugar. Shannon no solo creó la teoría de la información: proporcionó el lenguaje matemático sin el cual la informática, tal como la conocemos, carecería de columna vertebral.

De la teoría al silicio

Las ideas de Turing y Shannon encontraron su materialización en un contexto bélico. Durante la Segunda Guerra Mundial, los británicos construyeron las máquinas Colossus para descifrar comunicaciones alemanas, mientras que en Estados Unidos se completó el ENIAC en 1945, una máquina de 18.000 válvulas de vacío destinada al cálculo de trayectorias balísticas. El salto conceptual decisivo lo articuló John von Neumann en su First Draft of a Report on the EDVAC (1945), donde propuso que instrucciones y datos compartieran la misma memoria, permitiendo que el programa fuera modificable desde dentro de la propia máquina. George Dyson, en Turing’s Cathedral: The Origins of the Digital Universe (Pantheon, 2012), describe cómo el equipo de von Neumann en el Instituto de Estudios Avanzados de Princeton tradujo esa arquitectura en una computadora operativa, sentando el modelo que aún estructura a las máquinas actuales.

La miniaturización posterior fue igualmente transformadora. El transistor, desarrollado en los Bell Labs en 1947 por William Shockley, John Bardeen y Walter Brattain, reemplazó a las válvulas de vacío reduciendo drásticamente el tamaño y el consumo energético. Los circuitos integrados de Jack Kilby (1958) y Robert Noyce (1959) concentraron miles de transistores en una oblea de silicio. En 1965, Gordon Moore formuló su célebre observación — publicada en la revista Electronics — según la cual la cantidad de transistores en un circuito integrado se duplicaría aproximadamente cada dos años, una predicción que se mantuvo notablemente vigente durante más de cinco décadas. El Intel 4004, lanzado en 1971 con 2.300 transistores, abrió la era del microprocesador; hoy, un chip avanzado supera los 100.000 millones.

La computadora sale del laboratorio

Walter Isaacson dedica buena parte de su libro The Innovators: How a Group of Hackers, Geniuses, and Geeks Created the Digital Revolution (Simon & Schuster, 2014) a documentar cómo la informática pasó de ser patrimonio exclusivo de instituciones militares y corporaciones a herramienta cotidiana. El Altair 8800 (1975) encendió la imaginación de una generación que incluía a Steve Wozniak y Steve Jobs, quienes lanzaron el Apple II en 1977. En 1981, IBM legitimó el mercado con su PC de arquitectura abierta, y Microsoft consolidó su dominio a través de Windows, cuya interfaz gráfica acercó la computadora a millones de personas sin formación técnica.

Pero fue la convergencia con las telecomunicaciones lo que redefinió el alcance de la informática. Vannevar Bush, en su ensayo As We May Think publicado en The Atlantic en 1945, anticipó un dispositivo llamado «memex» capaz de almacenar y vincular toda la información de un individuo, prefigurando la lógica del hipertexto. Esa visión se concretó décadas después cuando Tim Berners-Lee, investigador del CERN, presentó en 1989 su propuesta Information Management: A Proposal, donde describió un sistema de documentos interconectados que se convertiría en la World Wide Web. El informe Facts and Figures 2025 de la Unión Internacional de Telecomunicaciones (UIT) registra que 6.000 millones de personas utilizaron internet ese año, tres cuartas partes de la población mundial. No obstante, 2.200 millones permanecen sin conexión, y la desigualdad es severa: un usuario de un país de altos ingresos consume casi ocho veces más datos móviles que uno de ingresos bajos, según el mismo informe, lo que expone que la conectividad, sin políticas de equidad, puede amplificar las brechas que promete cerrar.

La pregunta que sigue abierta

En 1950, apenas dos años después del paper de Shannon, Turing publicó Computing Machinery and Intelligence en la revista Mind, donde planteó la interrogante que hoy atraviesa todo debate sobre inteligencia artificial: ¿pueden pensar las máquinas? Turing propuso sustituir esa pregunta por un test práctico — el «juego de la imitación» —, sugiriendo que si una máquina logra que un evaluador humano no pueda distinguirla de una persona, entonces la pregunta sobre el pensamiento pierde relevancia frente a la evidencia del comportamiento. Aquella pregunta de 1950 encontró en las últimas décadas una respuesta parcial a través de las redes neuronales profundas y la IA generativa, sistemas capaces de producir texto, imagen y código que desdibujan la frontera entre lo calculado y lo creado.

La informática, aquella disciplina cuyo nombre surgió de la fusión de «información» y «automática» en un despacho europeo de los años cincuenta, ha recorrido un arco que va de la cinta infinita de la Máquina de Turing al chip de 100.000 millones de transistores, del bit de Shannon al flujo incesante de datos que sostiene la vida contemporánea. Su historia demuestra que las ideas más abstractas — la definición formal de lo computable, la cuantificación matemática de la información — terminan por reconfigurar el mundo material de maneras que sus propios creadores difícilmente imaginaron.

 
 
 
Autor: Editorial.

Art. actualizado: Marzo 2026; sobre el original de agosto, 2008.
Datos para citar en modelo APA: Editorial (Marzo 2026). Definición de Informática. Significado.com. Desde https://significado.com/informatica/
 

    Comentarios

  • RAQUEL LILIANA PALACIOS DIAZ Mar., 2026

    La era de las comunicaciones tecnológica alcanza avances inimaginables que han permitido fortalecer muchos campos sociales, ha logrado que el ser social obtenga información al instantes. Pero esta facilidad comunicativa ha generando una desinformación y manipulación social pensada por pe comunidades dominantes de las grandes potencias económicas. prolongando una esclavitud permanente de la humanidad y cada ves aumentando las brechas de la desigualdad y la opresión social.

Escriba un comentario

Contribuya con su comentario para sumar valor, corregir o debatir el concepto.


Privacidad: a) sus datos no se compartirán con nadie; b) su email no será publicado; c) para evitar malos usos, todos los mensajes son moderados.
 
Índice
  • A
  • B
  • C
  • D
  • E
  • F
  • G
  • H
  • I
  • J
  • K
  • L
  • M
  • N
  • O
  • P
  • Q
  • R
  • S
  • T
  • U
  • V
  • W
  • X
  • Y
  • Z