Mit starke KI kommt große Verantwortung, und der Einsatz großer Sprachmodelle stellt einzigartige Sicherheitsherausforderungen dar, die einen maßgeschneiderten Satz von OWASP-Richtlinien erfordern
Brainial ist nach ISO 27001 zertifiziert, um die Sicherheit der Daten zu gewährleisten, die unsere Kunden in ihren Brainial AI-basierten Tender Assistant hochladen. Wir wenden den OWASP-Standard an, da er eine umfassende Reihe von Richtlinien und Best Practices zur Identifizierung und Abschwächung allgemeiner Sicherheitsrisiken in Webanwendungen bietet.
Mit der fortschreitenden technologischen Entwicklung haben sich große Sprachmodelle (LLMs) wie GPT-X, ChatGPT und seine Nachfolger durchgesetzt. LLMs beziehen sich auf maschinelle Lernmodelle, die auf riesigen Datenmengen trainiert und in Anwendungen wie ChatGPT eingesetzt werden. GPT-4 von OpenAI, BERT und LaMDA 2 von Google und RoBERTa oder LLaMA 2 von Meta sind Beispiele für LLMs. Diese Modelle sind in der Lage, menschenähnlichen Text zu generieren, was sie zu einem wertvollen Werkzeug für Aufgaben wie natural language processing, Inhaltsgenerierung und digitale Assistenten macht.
Auf Brainial nutzen, trainieren und verfeinern wir auch unsere eigenen LLM-Modelle (z. B. unser proprietäres TenderGPT-Modell ), die wir im Ausschreibungsprozess einsetzen, z. B. um Daten zusammenzufassen, Fragen zu Ausschreibungen zu beantworten und Antworten und Textentwürfe zu generieren, um KI-gestütztes Angebote Schreiben zu ermöglichen.
LMMs sind sehr mächtig, aber mit großer Macht kommt auch große Verantwortung, und der Einsatz großer Sprachmodelle stellt einzigartige Sicherheitsherausforderungen dar, die einen maßgeschneiderten Satz von OWASP-Richtlinien erfordern.
Das Projekt OWASP Top 10 for Large Language Model Applications zielt darauf ab, Entwickler, Designer, Architekten, Manager und Organisationen über die potenziellen Sicherheitsrisiken beim Einsatz und der Verwaltung von Large Language Models (LLMs) aufzuklären. Das Projekt bietet eine Liste der 10 kritischsten Schwachstellen, die häufig in LLM-Anwendungen auftreten, und hebt ihre potenziellen Auswirkungen, die einfache Ausnutzung und die Verbreitung in realen Anwendungen hervor.
Beispiele für Schwachstellen sind u. a. prompt Injektionen, Datenlecks, unzureichendes Sandboxing und unautorisierte Codeausführung. Ziel ist es, das Bewusstsein für diese Schwachstellen zu schärfen, Abhilfestrategien vorzuschlagen und letztendlich die Sicherheitslage von LLM-Anwendungen zu verbessern.
Beim Training, der Feinabstimmung und der Implementierung von Large Language Models in unsere Anwendung prüfen und validieren wir gegen die üblichen LLM OWASP-Schwachstellen. Dies gewährleistet eine sichere Nutzung der LLM-Technologie und die Datensicherheit für die LLM-Modelle und -Daten unserer Kunden.
Unter Brainial führen wir die folgenden Kontrollen und Präventivmaßnahmen durch.
Angreifer können LLMs durch manipulierte Eingaben manipulieren und sie dazu bringen, die Absichten des Angreifers auszuführen. Dies kann direkt geschehen, indem das System prompt angegriffen wird, oder indirekt durch manipulierte externe Eingaben, was zu Datenexfiltration, Social Engineering und anderen Problemen führen kann.
Schwachstellen:
Unsere Präventivmaßnahmen:
Unsichere Ausgabeverarbeitung ist eine Schwachstelle, die auftritt, wenn eine nachgelagerte Komponente blindlings large language model (LLM)-Ausgaben ohne angemessene Prüfung akzeptiert. Dies kann zu XSS und CSRF in Webbrowsern sowie zu SSRF, Privilegienerweiterung oder Remotecodeausführung auf Backend-Systemen führen.
Schwachstellen:
Unsere Präventivmaßnahmen:
Trainingsdatenvergiftung bezieht sich auf die Manipulation der Daten oder des Feinabstimmungsprozesses, um Schwachstellen, Hintertüren oder Verzerrungen einzuführen, die die Sicherheit, die Wirksamkeit oder das ethische Verhalten des Modells beeinträchtigen könnten. Dies birgt das Risiko einer Leistungsverschlechterung, der Ausnutzung nachgelagerter Software und der Schädigung des Rufs.
Schwachstellen:
Unsere Präventivmaßnahmen:
Model Denial of Service tritt auf, wenn ein Angreifer mit einem Large LanguageModel (LLM) in einer Weise interagiert, die eine außergewöhnlich hohe Menge an Ressourcen verbraucht, was zu einer Verschlechterung der Dienstqualität für ihn und andere Benutzer führen kann und möglicherweise hohe Ressourcenkosten verursacht.
Schwachstellen:
Unsere Präventivmaßnahmen:
Schwachstellen in der Modellkette von LLMs können Trainingsdaten, ML-Modelle und Bereitstellungsplattformen gefährden, was zu verzerrten Ergebnissen, Sicherheitsverletzungen oder kompletten Systemausfällen führen kann. Solche Schwachstellen können von veralteter Software, anfälligen vortrainierten Modellen, vergifteten Trainingsdaten und unsicheren Plugin-Designs herrühren.
Schwachstellen:
Unsere Präventivmaßnahmen:
LLM-Anwendungen können versehentlich sensible Informationen, geschützte Algorithmen oder vertrauliche Daten offenlegen, was zu unbefugtem Zugriff, Diebstahl von geistigem Eigentum und Verletzungen der Privatsphäre führen kann. Um diese Risiken zu mindern, sollten LLM-Anwendungen eine Datenbereinigung vornehmen, geeignete Nutzungsrichtlinien einführen und die vom LLM zurückgegebenen Datentypen einschränken.
Schwachstellen:
Unsere Präventivmaßnahmen:
Plugins können anfällig für böswillige Anfragen sein, die aufgrund unzureichender Zugriffskontrollen und unsachgemäßer Eingabevalidierung zu schädlichen Folgen wie Datenexfiltration, Remotecodeausführung und Privilegienerweiterung führen. Entwickler müssen robuste Sicherheitsmaßnahmen ergreifen, um eine Ausnutzung zu verhindern, wie z. B. streng parametrisierte Eingaben und sichere Zugriffskontrollrichtlinien.
Schwachstellen:
Unsere Präventivmaßnahmen:
Übermäßige Handlungsfähigkeit in LLM-basierten Systemen/agents ist eine Schwachstelle, die durch Überfunktionalität, übermäßige Berechtigungen oder zu viel Autonomie verursacht wird. Um dies zu verhindern, müssen Entwickler die Funktionalität, die Berechtigungen und die Autonomie von Plug-ins oder Agenten auf das absolut Notwendige beschränken, die Benutzerautorisierung verfolgen, die menschliche Genehmigung für alle Aktionen verlangen und die Autorisierung in nachgelagerten Systemen implementieren.
Schwachstellen:
Unsere Präventivmaßnahmen:
Wenn man sich zu sehr auf die Ergebnisse von LLMs verlässt, kann dies schwerwiegende Folgen haben, wie z. B. Fehlinformationen, rechtliche Probleme und Sicherheitslücken, wenn man einem LLM vertraut, kritische Entscheidungen zu treffen oder Inhalte zu generieren, ohne sie angemessen zu überwachen oder zu validieren.
Schwachstellen:
Vorbeugende Maßnahmen:
Beim Diebstahl von LLM-Modellen geht es um den unbefugten Zugriff auf LLM-Modelle und deren Exfiltration, wodurch wirtschaftliche Verluste, Rufschädigung und unbefugter Zugriff auf sensible Daten drohen.
Schwachstellen:
Unsere Präventivmaßnahmen:
Die Welt der LLMs ist noch neu und kann überwältigend sein, da viele Forschungen und Experimente noch im Gange sind und viele Bereiche noch unentdeckt sind. Es ist jedoch offensichtlich, dass jedes Unternehmen, das mit einem LLM arbeitet, Richtlinien und Kontrollen benötigt, und der OWASP-Standard bietet einen guten Ausgangspunkt. Da NLP-Technologie und LLMs ein zentraler Bestandteil unseres KI-gestützten Ausschreibungsassistenten sind, sind wir bestrebt, unseren Kunden und Nutzern eine Lösung zu bieten, die sicher ist und der man vertrauen kann. Aus diesem Grund haben wir im Rahmen unserer ISO 27001-Zertifizierung eine LLM-Nutzungsrichtlinie und die LLM OWASP-Richtlinien eingeführt. Lesen Sie mehr über unsere Sicherheitsmaßnahmen in unserer ISO 27001-Zertifizierung
Mit der KI-gestützten Technologie von Brainial können Ausschreibungsteams Angebote leicht finden und qualifizieren, sicherstellen, dass sie keine kritischen Informationen übersehen, Ausschreibungsdokumente schnell und gründlich durchsehen und die benötigten Informationen schnell und einfach finden. Durch die Bewältigung dieser Herausforderungen hilft Brainial den Ausschreibungsteams, Zeit zu sparen, Fehlschlagskosten zu reduzieren und fundiertere Angebotsentscheidungen zu treffen. Prüfen Sie unsere KI-gestützte Lösung Tender Assist .