Deine Daten. Deine Wahl.

Wenn du nur das Nötigste wählst, erfassen wir mit Cookies und ähnlichen Technologien Informationen zu deinem Gerät und deinem Nutzungsverhalten auf unserer Website. Diese brauchen wir, um dir bspw. ein sicheres Login und Basisfunktionen wie den Warenkorb zu ermöglichen.

Wenn du allem zustimmst, können wir diese Daten darüber hinaus nutzen, um dir personalisierte Angebote zu zeigen, unsere Webseite zu verbessern und gezielte Werbung auf unseren und anderen Webseiten oder Apps anzuzeigen. Dazu können bestimmte Daten auch an Dritte und Werbepartner weitergegeben werden.

ETH Zürich
News & Trends

ETH und EPFL stellen eigenes KI-Modell vor

Ein neues Open-Source-Sprachmodell aus der Schweiz unterstützt über 1000 Sprachen und bietet 70 Milliarden Parameter. Damit ist es ähnlich gross wie Metas Llama 3 und soll eine Alternative zu proprietären LLMs bieten.

Die ETH Zürich und die EPFL haben ein vollständig offenes Large Language Model (LLM) entwickelt. Es soll im Spätsommer 2025 erscheinen. Das Modell unterstützt laut Medienmitteilung über 1000 Sprachen. Trainiert wurde es auf dem Supercomputer «Alps» des Schweizer Supercomputer-Zentrum CSCS.

Im Unterschied zu proprietären LLMs, wie zum Beispiel von OpenAI oder Anthropic, setzt das Schweizer Modell auf Transparenz. Sowohl Quellcode als auch Modellgewichte und Trainingsdaten werden zur Verfügung gestellt. Das ist in der Branche bislang selten. LLMs von Meta und DeepSeek sind zwar «Open Weight», aber nicht vollständig «Open Source». Das heisst, die Algorithmen und Trainingsdaten bleiben unter Verschluss.

  • Hintergrund

    7 Fragen und Antworten zu DeepSeek

    von Samuel Buchmann

Das Modell der ETH wird in zwei Versionen erscheinen – mit acht und 70 Milliarden Parameter. Letzteres ist vergleichbar mit Metas Llama 3. GPT-4 von OpenAI wird auf etwa 1800 Milliarden Parameter geschätzt, Anthropics Claude 4 Opus auf rund 300 Milliarden. Die Anzahl Parameter ist nicht die einzige Metrik für die Leistung eines LLMs, aber ein Indiz. Proprietäre Modelle erreichen aktuell bei Benchmarks die höchsten Scores. Doch Open-Source-Modelle bieten Vorteile hinsichtlich Nachvollziehbarkeit, Anpassbarkeit und Datenkontrolle.

Datenschutz beim Training berücksichtigt

Bei der Entwicklung des LLMs werden die schweizerischen Datenschutzgesetze, das schweizerische Urheberrecht und die Transparenzverpflichtungen im Rahmen der KI-Verordnung der EU (EU AI Act) berücksichtigt. Gemäss einer aktuellen Studie der Projektleitenden bringt es für alltägliche Aufgaben praktisch keine Leistungseinbussen mit sich, wenn bei der Datengewinnung die Opt-outs für Web-Crawling respektiert werden — und das Training damit gewisse Web-Inhalte ignoriert.

Die Swiss AI Initiative hat Zugang zum Supercomputer «Alps» am CSCS.
Die Swiss AI Initiative hat Zugang zum Supercomputer «Alps» am CSCS.
Quelle: Swiss National Supercomputing Centre

Das Modell wird unter der Apache-2.0-Lizenz veröffentlicht. Damit soll es sowohl für wissenschaftliche als auch industrielle Anwendungen zugänglich sein. Es ist ein Resultat der Swiss AI Initiative, die im Dezember 2023 von der EPFL und der ETH Zürich lanciert wurde. Mit über 800 beteiligten Forschenden und dem Zugang zu über 20 Millionen GPU-Stunden pro Jahr auf dem Supercomputer am CSCS ist es das weltweit grösste Open-Science- und Open-Source-Projekt zu KI-Basismodellen.

Titelbild: ETH Zürich

607 Personen gefällt dieser Artikel


User Avatar
User Avatar

Mein Fingerabdruck verändert sich regelmässig so stark, dass mein MacBook ihn nicht mehr erkennt. Der Grund: Wenn ich nicht vor einem Bildschirm oder hinter einer Kamera sitze, hänge ich oft an den Fingerspitzen in einer Felswand.


News & Trends

Vom neuen iPhone bis zur Auferstehung der Mode aus den 80er-Jahren. Die Redaktion ordnet ein.

Alle anzeigen

93 Kommentare

Avatar
later