Réglementation de l'IA au Royaume-Uni : ce que les entreprises doivent savoir en 2025

This is some text inside of a div block.
9 minutes
September 16, 2025

Table des matières

Le Royaume-Uni ne dispose pas encore d'une loi unique et complète sur l'IA comme l'UE, mais il évolue rapidement vers des règles plus formelles. Au lieu d'adopter une nouvelle loi, le Royaume-Uni suit une fondé sur des principes, dirigé par le secteur model. En mars 2023, le gouvernement a publié son livre blanc sur la réglementation de l'IA, »Une approche favorable à l'innovation en matière de réglementation de l'IA, » qui définit cinq principes directeurs pour l'IA :

  1. Sûreté, sécurité et robustesse
  2. Transparency and explicability
  3. Equity
  4. Responsibility and governance
  5. Contestability and repair.

Ces principes de haut niveau (tirés du livre blanc britannique sur l'IA) constituent le fondement de la politique britannique en matière d'IA. Ils sont destinés à être appliqués de manière flexible dans tous les secteurs d'activité. Par exemple, des régulateurs tels que le ICO, FCA, CMA, Ofcom, MYRE, et d'autres ont été invités à intégrer ces principes dans leur supervision actuelle de l'IA dans les domaines de la protection des données, de la finance, de la concurrence, des télécommunications, de la santé, etc. Cela signifie que les régulateurs britanniques utiliseront les lois en vigueur (par exemple, les lois sur la protection des données, la sécurité, les consommateurs ou les finances) et les nouvelles directives pour appliquer ces principes, que plutôt que d'attendre une nouvelle loi à IA.

Le livre blanc met l'accent sur la « promotion de l'innovation » en n'interdisant pas de manière préventive l'ensemble des technologies d'IA, mais il indique que certaines règles ciblées ou des mises à jour des lois sectorielles pourraient être nécessaires à l'avenir (exemple par exemple, en ce qui concerne les modèles de base). Le gouvernement a déjà fait partie de ses plans d'action supplémentaires : dans le discours du roi de juillet 2024, il s'est engagé à »exploitez la puissance de l'intelligence artificielle » et « renforcer les cadres de sécurité». Compte tenu de l'évolution continue dans ce domaine, il devient important de se tenir au courant de l'évolution de la réglementation et des changements en cours. Dans cet article, nous aborderons ce que vous devez savoir en tant que propriétaire d'entreprise si vous traitez des données de citoyens britanniques.

Le projet de loi (réglementation) sur l'intelligence artificielle : qu'est-ce qui est proposé ?

Bien que le Royaume-Uni n'ait pas promulgué de Loi sur l'IA Pourtant, un nouveau projet de loi (réglementation) sur l'intelligence artificielle a été présenté en tant que projet de loi d'initiative parlementaire (par Lord Holmes) en mars 2025. S'il est adopté, ce projet de loi créerait le premier cadre statutaire du Royaume-Uni en matière d'IA. Il présente trois caractéristiques principales :

  • Autorité chargée de l'IA : Mettre en place une centrale Autorité de l'IA (analogue au Bureau de l'IA de l'UE) pour coordonner les politiques. Cet organisme veillerait à ce que tous les régulateurs « tiennent compte de l'IA », examinent les lois existantes (sécurité, confidentialité, protection des consommateurs) pour déterminer s'ils sont prêts à l'IA, effectuent une analyse prospective et accréditent même des auditeurs indépendants en matière d'IA.

  • Principles codifiés : Faire des cinq principes du livre blanc britannique sur l'IA des normes juridiquement contraignantes. Le projet de loi codifie explicitement ces principes (sécurité/sécurité ; transparence ; équité ; responsabilité ; contestabilité) en tant que devoirs que les développeurs et les déployeurs d'IA doivent respecter. Les entreprises seraient tenues de « faire preuve de transparence » quant à l'utilisation de l'IA, de la testeuse et de se conformer à toutes les lois pertinentes (données, IP, etc.).

  • Rôles de responsabilité et de transparence : Surtout, le projet de loi obliger les entreprises qui développent ou utilisent l'IA à nommer un « responsable de l'IA » désigné dont le travail consiste à s'assurer que l'IA est utilisée de manière éthique, sûre et impartiale. Cela exigerait également la transparence en ce qui concerne les données de formation en matière d'IA et l'utilisation des modèles. Par exemple, les entreprises doivent fournir à l'autorité chargée de l'IA des enregistrements de toutes les données de tiers et de la propriété intellectuelle utilisées pour entraîner leur IA.

En outre, le projet de loi prévoit des évaluations d'impact, un étiquetage des utilisateurs (consentement clair et avertissements) et un dialogue ouvert avec le public sur les risques liés à l'IA. Dans l'ensemble, cela marque une évolution vers un modèle européen regime fondé sur les risques (classification de l'IA en fonction des risques et de l'application des obligations) plutôt que le modèle léger actuel du Royaume-Uni. Cependant, en tant que projet de loi d'initiative parlementaire, il ne bénéficie actuellement d'aucun soutien du gouvernement et demeure en débat. C'est ce n'est pas encore la loi. En cas d'échec, le Royaume-Uni poursuivrait son approche fondée sur les principes existants, mais de nombreuses parties prenantes pensent que des règles plus strictes (et une autorité en matière d'IA) pourraient encore émerger dans la future législation.

Royaume-Uni contre UE : en quoi l'approche britannique diffère-t-elle de la loi européenne sur l'IA ?

L'Union européenne a déjà promulgué une vaste Loi sur l'IA (à compter d'août 2024) avec un cadre détaillé basé sur les risques. En revanche, le Royaume-Uni a aucune loi britannique sur l'IA encore. La loi de l'UE classe les systèmes d'IA en plusieurs niveaux (interdits, à haut risque, etc.) et impose des obligations strictes, notamment des évaluations de conformité et de lourdes amendes en cas de violation. Par exemple, l'UE a explicitement interdictions notation sociale et surveillance biométrique non consentie, et oblige les fournisseurs de systèmes d'IA à haut risque (tels que la notation de solvabilité, les tests d'embauche, les dispositifs médicaux) à se soumettre compliance évaluations et une surveillance rigoureuse. Ces entreprises doivent mettre en œuvre des tests de biais détaillés, une documentation et des plans de surveillance. En revanche, le Royaume-Uni s'est jusqu'à présent prononcé en faveur d'une toucher plus léger. Il encourage l'innovation en laissant les régulateurs existants appliquer les principes au cas par cas, plutôt que de fixer des interdictions générales ou des régimes d'audit dans la loi.

Cela signifie qu'une entreprise britannique utilisant l'IA doit respecter le RGPD et d'autres lois (par exemple, les réglementations sanitaires ou financières) et prendre en compte les principes généraux de l'IA britanniques, tandis qu'une opération de l'UE doit se conformer explicitement aux exigences de la nouvelle loi sur l'IA (y compris les certifications formelles pour les systèmes à haut risque). Le projet de loi britannique, s'il est adopté, comblerait partiellement cette lacune en créant une autorité en matière d'IA et en codifiant les obligations, mais il met toujours l'accent sur la souveraineté du Royaume-Uni. Par exemple, il le fait pas obliger le Royaume-Uni à suivre les règles de l'UE relatives à l'interdiction de l'utilisation de l'IA. Jusqu'à présent, l'approche britannique donne la priorité flexibilité et gradualité, tandis que l'approche de l'UE est plus prescriptive. Les entreprises opérant sur les deux marchés devront probablement de toute façon se conformer aux normes plus strictes de l'UE, mais elles devraient être attentives à l'évolution des normes britanniques et à une éventuelle nouvelle législation britannique.

Ce que les entreprises doivent faire dès maintenant

Avant même toute nouvelle législation, les entreprises britanniques devraient agir de manière proactive. Les étapes suivantes vous aideront à vous préparer future réglementation britannique sur l'IA and reduce legal and reputation risk :

  • Identifier les systèmes d'IA utilisés

    Fais une Inventory of IA. Documentez tous les outils d'IA de votre organisation. Des chatbots et des moteurs de recommandation aux algorithmes pour les ressources humaines, les finances ou les opérations. Incluez à la fois des modèles développés en interne et des IA tierces (comme les services d'IA générative). Cela correspond aux meilleures pratiques en matière de gouvernance des données et reflète les étapes de conformité à l'UE (par exemple, Know Your AI inventory).

  • Cartographier les risques en fonction de la fonction d'IA

    Pour chaque système d'IA, cartographiez ses risk profile. Vous pouvez vous demander : traite-t-il des données personnelles ou sensibles ? Prend-il des décisions à fort impact (embauche, prêt, conseils médicaux, etc.) ? Evaluez les risques en matière d'équité, de confidentialité et de sécurité. Les fonctions à haut risque (recrutement, approbation de prêts, utilisation par les forces de l'ordre, par exemple) méritent un examen plus approfondi. Effectuez des contrôles de partialité, des tests de sécurité et des évaluations de l'impact sur la confidentialité (similaires aux DPIA de l'UE) sur les IA critiques. This process anticipe les futures exigences en matière d'évaluation de la conformité.

  • S'aligner sur les principes réglementaires du Royaume-Uni

    Même sans loi fixe, commencez à intégrer les principes de l'IA du Royaume-Uni dans vos pratiques. Cela implique de mettre en place des contrôles de sûreté et de sécurité (tests robustes, mécanismes de secours), de documenter le fonctionnement de votre IA (pour plus de transparence), de suivre la responsabilité (par exemple, des journaux d'audit) et de mettre en place des processus de recours (plaintes des clients, examen humain des décisions). Alignez vos politiques sur les cinq principes du livre blanc et vérifiez que votre IA est conforme aux lois en vigueur (protection des données, égalité, propriété intellectuelle, règles sectorielles). En fait, allez à autocertificateur à ces principes, en préparant tout futur cadre de conformité britannique.

  • Preparez-vous à la conformité interjuridictionnelle

    Si vous opérez à l'international, harmonisez la gouvernance de l'IA entre les juridictions. Outre le RGPD britannique, considérez le Loi sur l'IA de l'UE (en particulier si vous servez des clients de l'UE) en vérifiant si l'un de vos systèmes est classé comme « à haut risque » ou s'il comporte des obligations de transparence. Notes également d'autres régimes émergents : le futur du Canada AIDA (Loi sur l'intelligence artificielle et les données) devrait réglementer l'IA au niveau fédéral, et la loi canadienne sur la protection de la vie privée (LPRPDE) régit l'utilisation des données personnelles. Aux États-Unis, les lois sur la confidentialité des données varient d'un État à l'autre, et l'on parle de plus en plus de règles relatives à l'IA. Harmonisez la gestion des risques liés à l'IA avec les cadres de protection des données et de cybersécurité (ISO, NIST, etc.) et garantissez une documentation cohérente afin de pouvoir démontrer la conformité au Royaume-Uni, dans l'UE et au-delà.

  • Attribuer la responsabilité interne (rôle hybride AI/DPO)

    Désignez clairement la responsabilité de la gouvernance de l'IA en interne. Le projet de loi britannique propose un rôle de « responsable de l'IA », similaire à celui d'un responsable de la protection des données pour la confidentialité. Avant même l'adoption de cette loi, les entreprises devraient désigner un champion de l'IA ou créer une équipe de gouvernance de l'IA. Ce rôle (qui pourrait faire partie ou être aligné avec les fonctions du DPO/CISO) devrait suivre l'utilisation de l'IA, garantir des normes éthiques et assurer la liaison avec les régulateurs si nécessaire. Une responsabilisation claire sera attendue en vertu de la législation sur l'IA au Royaume-Uni, et constitue une bonne gestion des risques à l'heure actuelle.

En suivant ces étapes, à savoir l'inventaire, la cartographie des risques, l'alignement des principes, la coordination multijuridictionnelle et une responsabilisation claire, les entreprises seront prêtes à affronter l'évolution du paysage. Cette approche proactive permet non seulement d'atténuer les risques juridiques, mais aussi de renforcer la confiance des clients et des régulateurs.

Le rôle de l'Institut de sécurité de l'IA (AISI)

Parallèlement, le Royaume-Uni a créé le Institut de sécurité de l'IA (AISI), parfois appelé AI Security Institute. Lancé en novembre 2023 lors du UK Safety Summit, l'AISI est le premier centre au monde soutenu par le gouvernement et axé sur risques à long terme liés aux puissants systèmes d'IA. Sa mission principale est pas pour réglementer dans le sens du statu quo, mais pour mener des évaluations techniques approfondies et des recherches sur l'IA avancée. Le travail de l'AISI comprend la réalisation de tests de résistance « en équipe rouge » sur des modèles de pointe, l'élaboration de critères de sécurité et le partage d'informations avec les décideurs politiques et l'industrie.

Pour les entreprises, les recherches de plus en plus nombreuses de l'AISI indiqueront quels sont les risques qui préoccupent le plus le gouvernement britannique. Par exemple, si l'AISI constate que certaines méthodes de formation posent des problèmes de sécurité, les régulateurs peuvent intervenir ultérieurement. Les entreprises peuvent en tirer parti en participant aux initiatives de l'AISI, en adoptant ses directives de sécurité à un stade précoce et en surveillant ses audits publiés. En bref, l'AISI complète les efforts réglementaires en se concentrant sur émergent Dangers liés à l'IA et à la sécurité technique. Son indépendance et son expertise peuvent aider le Royaume-Uni à développer son expertise (une lacune connue) et à garantir que, à mesure que les modèles d'IA progressent, il existe des normes crédibles pour éclairer les futures lois ou directives en matière d'intelligence artificielle.

Legal risk and public pressure

Les entreprises britanniques font face à une hausse legal and public pressure autour de l'utilisation de l'IA. Les récentes décisions de justice mettent en évidence cette tendance. À titre d'exemple, un tribunal britannique (août 2024) a décidé que le HMRC devait indiquer si et comment il utilisait l'IA pour examiner les demandes de crédit d'impôt pour la R&D. Le tribunal a souligné que la transparence des décisions fondées sur l'IA est « particulièrement importante » compte tenu des préoccupations mondiales concernant la prise de décision automatisée. Cette affaire montre que les régulateurs et les tribunaux examineront de près l'utilisation de l'IA par les agences gouvernementales. Par analogie, les entreprises privées peuvent être confrontées à des exigences similaires en matière d'ouverture, en particulier si l'IA affecte les clients ou les employés.

Entre-temps, controverses sur le droit d'auteur et l'utilisation des données grand métier à tisser. Des procès très médiatisés (comme Getty Images contre Stability AI devant la Haute Cour du Royaume-Uni, juin 2025) dépendent de la capacité des entreprises d'IA générative à utiliser du contenu protégé par le droit d'auteur ou extrait sans autorisation. Ces affaires pourraient créer des précédents en ce qui concerne ce qui constitue une utilisation équitable des données de formation. Pour les entreprises qui utilisent ou fournissent des outils d'IA génératifs, le risque de litiges en matière de propriété intellectuelle augmente. Même en l'absence de lois spécifiques en vigueur, les tribunaux et le Parlement se concentrent sur cette question.

L'opinion publique et les législateurs exigent également des règles plus strictes en matière d'IA. En 2023, plus de 1 000 experts en IA (y compris le PDG de Google et des leaders technologiques) ont signé une lettre ouverte appelant à une pause immédiate dans le développement de systèmes d'IA « géants » et ont préconisé une réglementation plus stricte des puissantes IA. Des personnalités de haut niveau (par exemple, l'ancien premier ministre Tony Blair et Lord Hague) ont averti que les risques liés à l'IA étaient « graves » et que des mesures urgentes étaient nécessaires. Les commissions de la Chambre des Lords et des Communes discutent activement de nouvelles garanties et ont noté que sans réglementation, le Royaume-Uni risque de prendre du retard par rapport aux normes de l'UE.

Dans ce climat, les entreprises britanniques risquent reputation atteinte s'ils semblent ignorer la sécurité ou l'éthique. Aujourd'hui encore, le Parlement réclame la transparence de l'impact de l'IA, des règles sectorielles plus strictes ou des codes de conduite volontaires. De nombreuses entreprises britanniques ont commencé à s'autoréguler. Ils ont commencé à publier des directives éthiques en matière d'IA, à effectuer des audits externes ou à étiqueter l'utilisation de l'IA pour les clients. Il ne suffit plus de rester réactif. Les entreprises devraient faire preuve de manière proactive d'une gouvernance responsable de l'IA, faute de quoi elles pourraient être confrontées à la fois à des défis juridiques et à des réactions négatives de l'opinion publique.

Implications pour les systèmes d'IA transfrontaliers et multijuridictionnels

L'IA respecte rarement les frontières. Les entreprises qui utilisent l'IA doivent donc composer avec des régimes qui se chevauchent. Par exemple, un système automatisé Employee tracking tool or un algorithme de recrutement utilisé au Royaume-Uni peut également être déployé dans l'UE ou aux États-Unis. Chaque juridiction a ses propres priorités. Par exemple, le Royaume-Uni se concentre sur ses principes et pourrait avoir besoin de futurs rôles de « responsable de l'IA », l'UE applique les règles relatives aux risques de la Loi sur l'IA (avec de lourdes amendes en cas de non-conformité), et aux États-Unis, les modèles linguistiques à grande échelle sont confrontés à des propositions de lois fédérales et étatiques en matière d'équité ou de transparence, ainsi qu'à des règles sectorielles (par exemple, les directives de la FTC). De même, l'IA dans le service client ou les soins de santé doit respecter le RGPD britannique (sous la supervision de l'ICO) et, si elle concerne des résidents de l'UE, le RGPD de l'UE et la loi sur l'IA.

Concrètement, les entreprises devraient harmoniser leurs pratiques en matière d'IA, de confidentialité et de cybersécurité sur tous les marchés.

  • Pour ce qui est de la confidentialité des données, cela signifie qu'il faut s'assurer que le traitement des données personnelles respecte les normes applicables les plus strictes (souvent le RGPD de l'UE), d'autant plus que le RGPD britannique reflète actuellement la législation de l'UE.
  • En matière de cybersécurité, les entreprises doivent suivre les directives du NCSC du Royaume-Uni et s'aligner sur les exigences de sécurité des données de l'UE. Pour l'IA en particulier, conduisez Évaluations de conformité de l'IA au moins à la norme de l'UE.
  • Utilisez des audits internes ou des audits tiers sur toutes les IA à fort impact (par exemple, toute IA qui sélectionne les candidats, évalue les prêts ou diagnostique les patients), cela reflète l'approche de l'UE.

En répondant de manière proactive aux attentes de l'UE (par exemple en documentant les tests de biais, en enregistrant les décisions, en permettant l'évaluation humaine), vous serez mieux placé si la législation britannique se durcit ou si d'autres pays (par exemple, le prochain AIDA du Canada) mettent en œuvre des cadres similaires.

Pour les entreprises internationales, un cadre de gouvernance unifié est essentiel : un cadre qui couvre à la fois la réglementation britannique sur l'IA, la loi sur l'IA de l'UE et les lois sur les données. Cela peut impliquer une équipe internationale de DPO en coordination avec un responsable de la conformité en matière d'IA, afin que les modèles d'IA et les flux de données soient conçus en tenant compte de toutes ces règles.

Les entreprises peuvent également tirer parti des sandbox et des directives réglementaires. Par exemple, le Royaume-Uni et l'UE favorisent tous deux les tests d'IA dans des environnements sûrs.

Pourquoi travailler avec DPO Consulting pour la gouvernance de l'IA

La gestion de ces exigences complexes nécessite une expertise. DPO Consulting combine une connaissance approfondie de data confidentiality (RGPD, RGPD britannique, PIPEDA) avec une expérience des nouvelles lois sur l'IA. Nous vous conseillons sur Gouvernance et conformité de l'IA de manière holistique. Par exemple, notre Services de conformité au RGPD Le Royaume-Uni garantit que vos pratiques en matière de données reposent sur des bases solides. En effet, un contrôle rigoureux des données sous-tend la conformité de l'IA.

Nous guidons également nos clients à travers les exigences de l'UE (offre) IA compliance and évaluations de Systèmes d'IA à haut risque) pour s'aligner sur la loi de l'UE sur l'IA. Nos consultants vous aident à auditer et à documenter vos systèmes d'IA, à planifier l'atténuation des risques et à mettre en œuvre les cinq principes britanniques en matière d'IA dans vos politiques.

En s'associant à DPO Consulting, les entreprises obtiennent non seulement des listes de contrôle de conformité, mais aussi des stratégies personnalisées pour utiliser l'IA de manière responsable. Nous avons aidé plus de 800 organisations à se conformer au RGPD et aux réglementations sectorielles, leur donnant ainsi un historique de réussite sur lequel elles peuvent compter. Dans le paysage de l'IA en évolution rapide, vous avez besoin d'un allié fiable et compétent. Nous vous permettons de garder une longueur d'avance sur les changements de politique en matière d'IA au Royaume-Uni, d'aligner vos programmes d'IA sur les normes internationales et de réduire la charge de travail de votre équipe interne.

FAQ

Le Royaume-Uni dispose-t-il d'une loi sur l'IA ? 

Non. En 2025, le Royaume-Uni n'a promulgué aucune loi sur l'IA. Il s'appuie sur les lois existantes (protection des données, sécurité, etc.) et sur un cadre fondé sur des principes issus du livre blanc sur l'IA de 2023. Un projet de loi sur la réglementation de l'IA est à l'étude, mais il n'a pas encore force de loi.

Quels sont les principes du Royaume-Uni en matière de réglementation de l'IA ? 

Le livre blanc britannique établit cinq principes fondamentaux pour l'IA : Sûreté, sécurité et robustesse ; Transparence et explicabilité ; Équité ; Responsabilité et gouvernance ; Contestabilité et recours. Ces principes guident tous les secteurs. Les entreprises sont tenues de rendre leur IA sûre, explicable aux personnes concernées, équitable (aucun résultat biaisé) et responsable (avec une supervision humaine et des mesures correctives).

Le projet de loi sur l'intelligence artificielle (réglementation) a-t-il déjà été adopté ? 

Non. Le projet de loi a été présenté en mars 2025 à la Chambre des Lords et reste à l'état de projet. Comme il n'a pas encore été promulgué, ses dispositions (comme la création d'une autorité chargée de l'IA et la désignation des responsables de l'IA) ne sont pas applicables actuellement.

Dois-je désigner un responsable de l'IA dans mon entreprise ? 

Pas en vertu de la loi actuelle. Toutefois, le projet de loi exiger les entreprises qui développent ou utilisent l'IA doivent désigner un « responsable de l'IA » afin de garantir une utilisation éthique, transparente et impartiale de l'IA. Même maintenant, c'est meilleure pratique pour attribuer des responsabilités claires à l'IA (combinant souvent les rôles de DPO et de supervision de l'IA) afin que vous soyez prêt si cela devenait une obligation légale.

En quoi la réglementation britannique sur l'IA diffère-t-elle de la loi de l'UE sur l'IA ? 

La loi de l'UE sur l'IA est une risk law avec des règles détaillées pour l'IA à haut risque, des interdictions pures et simples et des évaluations de conformité. L'approche du Royaume-Uni est la suivante : plus flexible: il met l'accent sur les grands principes appliqués par les régulateurs du secteur plutôt que sur des catégories rigides. Pour l'instant, les entreprises britanniques doivent respecter les lois et les principes généraux, tandis que les entreprises de l'UE doivent respecter les obligations spécifiques de la législation européenne (ou les respecter de toute façon si elles vendent à des clients de l'UE).

À quels risques les entreprises britanniques doivent-elles se préparer en 2025 ? 

Fais attention à risques liés à la transparence et à la responsabilité. Des décisions récentes (comme l'affaire de divulgation de l'IA du HMRC) montrent que les régulateurs insistent sur une divulgation claire lorsque l'IA prend des décisions. Les entreprises devraient également suivre les appels en faveur de nouvelles règles en matière d'IA, par exemple si le Royaume-Uni adopte le projet de loi sur l'IA, les entreprises non conformes pourraient se voir infliger des amendes ou des ordonnances correctives.

DPO Consulting : votre partenaire en matière d'IA et de conformité au RGPD

Investir dans les efforts de conformité au RGPD peut peser lourdement sur les grandes entreprises ainsi que sur les petites et moyennes entreprises (PME). Le recours à une ressource ou à une assistance externe peut alléger la charge d'un audit interne pour l'ensemble des entreprises et alléger la pression sur les finances, les capacités technologiques et l'expertise de l'entreprise.

Les auditeurs externes et les partenaires experts tels que DPO Consulting sont bien placés pour aider les organisations à gérer efficacement la nature complexe des audits du RGPD. Ces professionnels formés agissent comme une extension de votre équipe, aidant à rationaliser les processus d'audit, à identifier les domaines à améliorer, à mettre en œuvre les changements nécessaires et à garantir la conformité au RGPD.

Confier le bon partenaire offre l'avantage de l'impartialité et du respect des normes du secteur et permet de débloquer une multitude de ressources telles que des informations spécifiques au secteur, ce qui se traduit par des évaluations impartiales et une conformité réussie. Travailler avec DPO Consulting se traduit par un gain de temps précieux et allège la charge de travail du personnel interne, tout en réduisant considérablement les coûts de l'entreprise.

Nos solutions

RGPD et conformité

DPO et représentation externalisés

Formation et assistance

À lire également

See all
White stylized letter B logo on a black circular background.
Hey there 🙌🏽 This is Grained Agency Webflow Template by BYQ studio
Template details

Included in Grained

Grained Agency Webflow Template comes with everything you need

15+ pages

25+ sections

20+ Styles & Symbols

Figma file included

To give you 100% control over the design, together with Webflow project, you also get the Figma file. After the purchase, simply send us an email to and we will e happy to forward you the Figma file.

Grained Comes With Even More Power

Overview of all the features included in Grained Agency Template

Premium, custom, simply great

Yes, we know... it's easy to say it, but that's the fact. We did put a lot of thought into the template. Trend Trail was designed by an award-winning designer. Layouts you will find in our template are custom made to fit the industry after carefully made research.

Optimised for speed

We used our best practices to make sure your new website loads fast. All of the images are compressed to have as little size as possible. Whenever possible we used vector formats - the format made for the web.

Responsive

Grained is optimized to offer a frictionless experience on every screen. No matter how you combine our sections, they will look good on desktop, tablet, and phone.

Reusable animations

Both complex and simple animations are an inseparable element of modern website. We created our animations in a way that can be easily reused, even by Webflow beginners.

Modular

Our template is modular, meaning you can combine different sections as well as single elements, like buttons, images, etc. with each other without losing on consistency of the design. Long story short, different elements will always look good together.

100% customisable

On top of being modular, Grained was created using the best Webflow techniques, like: global Color Swatches, reusable classes, symbols and more.

CMS

Grained includes a blog, carrers and projects collections that are made on the powerful Webflow CMS. This will let you add new content extremely easily.

Ecommerce

Grained Template comes with eCommerce set up, so you can start selling your services straight away.

Figma included

To give you 100% control over the design, together with Webflow project, you also get the Figma file.