Zdroje: games.cz, hrej.cz
OpenAI hrdě prohlašovalo, že GPT-5 vyřešil letité matematické problémy. Jak se ale ukázalo, šlo o nedorozumění. Umělá inteligence se nakonec spoléhala na existující výsledky výzkumu.
Co přesně bylo obviněno? 17. října 2025 publikoval odborný asistent statistiky na Harvardské univerzitě Mark Sellke příspěvek na X, ze kterého se zdálo, že GPT-5 pomohl vyřešit dříve nevyřešené matematické problémy.
Studenti špehovají kolemjdoucí skrytou kamerou a AI, během několika sekund zjistí jejich jméno a adresu
Další videa
Automatické přehrávání
Poté produktový manažer OpenAI Kevin Weil prohlásil, že GPT 5 „vyřešila 10 otevřených problémů Paula Erdőse“ a udělala významný pokrok v dalších 11.
Toto prohlášení bylo šířeno v nyní smazaném tweetu, aniž by bylo jasné, co přesně bylo myšleno nebo jaké důkazy byly založeny (přes Xataka). Jediný odkaz byl Sellkeho původní příspěvek.
Jaké jsou vlastně tyto Erdőovy problémy? Paul Erdős byl legendární maďarský matematik známý svým velkým množstvím publikací a hlubokými matematickými otázkami. Mnohé jeho problémy, tzv. Erdőovy problémy, jsou považovány za zvlášť složité a dosud nevyřešené.
Týkají se mimo jiné:
- Prvočísla a jejich rozdělení
- Teorie grafů (např. sítě nebo uzly)
- Kombinatorika (matematika počítání a aranžování)
Na platformě erdosproblems.com tyto problémy jsou zdokumentovány a propojeny s aktuálními matematickými články.
Všechno jen odepsané?
Co se pokazilo na prohlášení OpenAI? OpenAI založilo své tvrzení na platformě Erdős Problems, kde výzkumníci porovnávají matematické pokroky. Kevin Weil si navíc jednoduše špatně vyložil post docenta.
Matematik Thomas Bloom, který provozuje platformu, na které se tyto otevřené matematické otázky shromažďují, rychle objasnil, co to vlastně je. Jak vysvětlil na GPT-5 jednoduše našel aktuální studie a výsledky výzkumu.
Takže problémy nebyly vyřešeny v matematickém smyslu. Místo toho jazykový model jednoduše přiřadil nebo triviálně rozšířil známé články – což OpenAI nesprávně interpretovalo jako „řešení“.
GPT-5 tedy jednoduše přeřadil existující informace. Nezávislé řešení problému je v současné době mimo možnosti LLM (Large Language Models) (přes Xataka).
Incident je v jistém smyslu symbolem stavu světa umělé inteligence v roce 2025: tlak na neustálé přinášení nových objevů je obrovský. Společnosti jako OpenAI, Google DeepMind a Meta soupeří o pozornost a často s přehnanými sliby.
Nejsou to ale jen velké korporace, které riskují, že se budou příliš spoléhat na umělou inteligenci – AI se také může v běžném životě naprosto mýlit. V jiném, poněkud absurdním případě, se uživatel pokusil napravit neškodnou chybu pomocí AI Gemini od Googlu – a tím spustil nechtěnou nekonečnou smyčku: AI Google se 86krát zblázní a urazí se.
