How to Protect Yourself from ChatGPT Scams

As ChatGPT’s popularity grows, so does the potential for scammers to use AI to trick people into divulging personal information. ChatGPT offers scammers the ability to create craftier cons by using the AI to generate phishing emails, malicious code, fake websites, photos, videos and phone calls. For the rest of us, this means that we need to be more vigilant as scams become harder to identify.

In this blog, we’ll go over scams cybercriminals have crafted using ChatGPT and provide best practices on how to protect yourself and stay cyber safe online.

Brand Impersonation

Brand impersonation can take the form of cleverly crafted phishing emails or imitating a website from a well-known and trusted brand.

With phishing emails, the phish could be branded with the company’s logo and can contain a message nearly identical to one you might receive from that company. The scammer can easily copy the messaging from the real email and swap out the real link with a malicious one generated by ChatGPT.

OpenAI, the creators of ChatGPT, have tried to stop the generation of malicious code through ChatGPT. It should come as no surprise, however, that fraudsters have found a work-around and can trick the AI to generate malicious code.

By changing the URL parameter, cybercriminals are also able to create convincing fake websites that look nearly identical to the real thing. INKY recently posted to their blog a cyber-attack that used both a cleverly crafted brand impersonation phishing email and a fake website.

In this attack, the fraudsters were able to convince employees to follow a malicious link that appeared to come from the organization they worked for which led them to a site mimicking their own. When the employee tried to log in, they received an error message and their login information was stolen.

Fake Calls, Photos and Videos

ChatGPT also has the capability to craft fake phone calls, photos and videos that cybercriminals can use to trick people into thinking they are communicating with a real person representing a well-known brand or service provider.

A cybercriminal can use ChatGPT to craft a script or even make a phone call to manipulate someone into divulging their personal information.

Fraudsters can also use realistic looking photos and pose as a customer service representative to trick someone into providing their login credentials.

Additionally, with the help of ChatGPT, fraudsters can create fake videos impersonating high-ranking personnel asking employees to send personal information, money or other information to the cybercriminal.

To generate these scams, the fraudster uploads a script of what they want the photo to look like, or the person they are impersonating to say, and AI does the rest. It’s surprisingly simple.

The danger of these scams is that people are more likely to believe cybercriminals if it seems like they are communicating with a real person, or someone they know.

How to Protect Yourself

Organizational policies around ChatGPT are taking a while to roll out. This is especially true for larger organizations and enterprises where these types of changes take longer to implement due to their size and the number of policies involved.

Fortunately, to try and get ahead of the curve, many organizations have shared cautionary communications with their teams and have begun to educate their employees while more sophisticated internal policies are being implemented.

So, what can you do in the meantime?

1.       Slow down. Consider the email, phone call or video you are being presented with. Ask yourself these questions:

a.       Were you expecting it?

b.       Is it from someone you know?

c.       Is this how this person or organization usually communicates with me?

If you answer no to any of these questions, chances are someone is trying to scam you!

2.       Investigate. If the email, phone call or video is from someone you know or a well-known brand, do some investigative work. Look at the following things:

a.       If there is a link, hover over it. Compare it to the organization’s link from their website. Does it match?

b.       Look at the sender’s email address and compare it to the organizational address or personal address (you may need to search for this information). Do the email addresses match?

c.       When investigating a video, look at video quality and sizing. Is the quality the same as you would expect? Are the proportions correct?

If you answer “no” to any of these questions, chances are someone is trying to scam you!

3.       If in doubt, reach out! If you’ve completed the first two steps and still aren’t sure, reach out to the person or brand through another method of communication to confirm that the request is legitimate. You can always go through the organization’s support process through their website directly to mitigate any fake websites as well.

4.       Remember, you’re more likely to fall for a scam:

a.       Early in the morning and late at night.

b.       Working after hours or on vacation.

Avoid checking your email and responding to messages during these times as you aren’t as alert and are more likely to fall for a scam.

Looking for more Information?

Check out our blog on ChatGPT and Getting our Minds Around Artificial Intelligence.

Comment se protéger des arnaques créées avec ChatGPT

Le robot conversationnel ChatGPT gagne en popularité, et de plus en plus d’escrocs risquent d’utiliser l’IA pour inciter les gens à divulguer des renseignements personnels. ChatGPT offre aux escrocs la possibilité de concevoir des arnaques plus sophistiquées. Ils peuvent ainsi utiliser l’IA pour créer des courriels d’hameçonnage, des codes malveillants, de faux sites web, des photos, des vidéos et des appels téléphoniques. Il faut donc redoubler de vigilance, car les arnaques sont de plus en plus difficiles à repérer.

Dans cet article de blogue, nous allons passer en revue les arnaques que les cybercriminels ont conçues avec ChatGPT, puis nous allons présenter les meilleures pratiques pour vous protéger et utiliser Internet en toute sécurité.

Usurpation d’une marque

Une usurpation de marque peut prendre la forme de courriels d’hameçonnage astucieusement conçus ou d’une imitation d’un site web d’une marque connue et fiable.

Dans le cas des courriels d’hameçonnage, le leurre peut porter le logo de l’entreprise et contenir un message presque identique à celui que vous pourriez recevoir de ladite entreprise. L’escroc peut facilement copier un message d’un vrai courriel et remplacer le vrai lien par un lien malveillant généré par ChatGPT.

OpenAI, l’entreprise derrière ChatGPT, a tenté d’empêcher la génération de codes malveillants avec ChatGPT. Il n’est toutefois pas surprenant que les arnaqueurs aient réussi à trouver une solution pour tromper l’intelligence artificielle et générer de tels codes.

En modifiant le paramètre URL, les cybercriminels peuvent également créer de faux sites web convaincants qui semblent presque identiques aux vrais. INKY a récemment publié sur son blogue une cyber-attaque qui alliait un courriel d’hameçonnage habilement conçu pour usurper l’identité d’une marque et un faux site web.

Ici, les arnaqueurs ont réussi à convaincre les employés à suivre un lien malveillant qui semblait provenir de l’organisation pour laquelle ils travaillaient, et qui les conduisait à un site imitant celui de leur employeur. Les employés qui essayaient de s’y connecter recevaient un message d’erreur et se faisaient dérober leurs identifiants.

Faux appels, photos et vidéos

ChatGPT a aussi la capacité de créer de faux appels téléphoniques, de fausses photos et de fausses vidéos que les cybercriminels peuvent utiliser pour faire croire aux gens qu’ils communiquent avec une vraie personne représentant une marque ou un fournisseur de services bien connu.

Un cybercriminel peut utiliser ChatGPT afin de créer un script ou téléphoner à une victime et la manipuler dans le but de lui faire divulguer ses renseignements personnels.

Les arnaqueurs peuvent aussi utiliser des photos réalistes et se faire passer pour un représentant du service clientèle afin d’inciter une personne à fournir ses identifiants de connexion.

En outre, avec l’aide de ChatGPT, les arnaqueurs peuvent créer de fausses vidéos en se faisant passer pour des membres de la direction : ceux-ci demandent ensuite aux employés de partager des renseignements personnels, d’envoyer de l’argent ou de livrer d’autres informations.

Pour créer ces escroqueries, l’arnaqueur télécharge un script indiquant à quoi doit ressembler la photo ou ce que doit dire la personne dont il usurpe l’identité. L’IA fait le reste. C’est étonnamment simple.

Ces arnaques sont redoutables, car les gens sont plus enclins à croire les cybercriminels s’ils ont l’impression de communiquer avec la vraie une personne ou quelqu’un qu’ils connaissent.

Comment se protéger

Il faut du temps pour mettre en place des politiques organisationnelles sur ChatGPT. C’est particulièrement vrai pour les grandes organisations et les entreprises : compte tenu de leur taille et du nombre de politiques concernées, ces types de changements sont mis en œuvre plus progressivement.

Heureusement, pour tenter de prendre de l’avance, de nombreuses organisations ont communiqué des mises en garde à leurs équipes et ont commencé à sensibiliser leurs employés tandis que des politiques internes plus élaborées prennent forme.

Alors, que faut-il faire en attendant?

1.       Évitez de vous précipiter. Réfléchissez au courriel, à l’appel téléphonique ou à la vidéo qui vous est présentée. Posez-vous les questions suivantes :

a.       Vous y attendiez-vous?

b.       Est-ce que cela provient de quelqu’un que vous connaissez?

c.       Est-ce le mode de communication habituel avec cette personne ou cette organisation?

Si vous répondez « non » à l’une de ces questions, il y a de fortes chances que quelqu’un soit en train d’essayer de vous arnaquer!

2.       Menez l’enquête. Si le courriel, l’appel téléphonique ou la vidéo provient d’une personne que vous connaissez ou d’une marque connue, mettez-vous dans la peau d’un détective. Arrêtez-vous sur les éléments suivants :

a.       S’il y a un lien, survolez-le. Comparez-le au lien de l’organisation sur son site web. Est-ce le même?

b.       Regardez l’adresse électronique de l’expéditeur et comparez-la à l’adresse de l’organisation ou à l’adresse personnelle (vous allez peut-être devoir rechercher cette information). Les adresses électroniques correspondent-elles?

c.       Vérifiez la qualité et la taille de la vidéo qu’on vous présente. La qualité est-elle celle à laquelle vous vous attendez? Les proportions sont-elles correctes?

Si vous répondez « non » à l’une de ces questions, il y a de fortes chances que quelqu’un soit en train d’essayer de vous arnaquer!

3.       En cas de doute, n’hésitez pas à en parler! Si vous avez suivi les deux premières étapes et que vous doutez encore, communiquez avec la personne ou la marque par le biais d’une autre méthode de communication pour confirmer la véracité du message. Vous pouvez toujours passer par le processus d’assistance de l’organisation en communiquant avec le service directement depuis son site web afin d’éviter les sites web frauduleux.

4.       Gardez en tête que vous êtes plus susceptible de tomber dans le piège d’une arnaque :

a.       Tôt le matin et tard le soir.

b.       En dehors des heures de travail ou pendant les vacances.

Évitez de consulter votre courrier électronique et de répondre à des messages pendant ces périodes, car votre vigilance baisse, et que vos risques de tomber dans le piège augmentent.

Vous souhaitez plus d’info?

Consultez notre article ChatGPT et comprendre l’intelligence artificielle sur notre blogue.

Cómo protegerse de las estafas de ChatGPT

Con la creciente popularidad de ChatGPT, aumentan también las posibilidades de que los estafadores utilicen la IA para engañar a los usuarios y hacerles revelar información personal. ChatGPT ofrece a los estafadores la posibilidad de crear fraudes más elaborados utilizando la IA para generar correos electrónicos de phishing, códigos maliciosos, sitios web falsos, fotos, videos y llamadas telefónicas. Para el resto de nosotros, esto significa que tenemos que estar más atentos, ya que las estafas son cada vez más difíciles de identificar.

En este blog, repasaremos los fraudes que los ciberdelincuentes han estado elaborado utilizando ChatGPT y sugeriremos las mejores prácticas sobre cómo protegernos y mantenernos ciberseguros en Internet.

Suplantación de marca

La suplantación de marca puede adoptar la forma de correos electrónicos de phishing hábilmente elaborados o de imitación de un sitio web de una marca conocida y de confianza.

En el caso de los correos electrónicos de phishing, el phishing puede llevar el logotipo de la empresa y contener un mensaje casi idéntico al que podría recibir de esa empresa. El estafador puede copiar fácilmente la mensajería del correo electrónico real y cambiar el enlace real por uno malicioso generado por ChatGPT.

OpenAI, los creadores de ChatGPT, han intentado detener la generación de código malicioso a través de ChatGPT. Sin embargo, no es de extrañar que los estafadores hayan encontrado una solución y puedan engañar a la IA para que genere código malicioso.

Al cambiar el parámetro URL, los ciberdelincuentes también pueden crear sitios web falsos convincentes que parecen casi idénticos a los reales. INKY publicó recientemente en su blog un ciberataque que utilizaba tanto un correo electrónico de suplantación de marca hábilmente elaborado como un sitio web falso.

En este ataque, los estafadores consiguieron convencer a los empleados para que siguieran un enlace malicioso que parecía proceder de la organización para la que trabajaban y que les llevaba a un sitio que imitaba al suyo propio. Cuando el empleado intentó iniciar sesión, recibió un mensaje de error y su información de inicio de sesión fue robada.

Llamadas falsas, fotos y videos

ChatGPT también puede crear llamadas telefónicas, fotos y videos falsos que los ciberdelincuentes pueden utilizar para engañar a las personas haciéndoles creer que se están comunicando con una persona real que representa a una marca o proveedor de servicios conocido.

Un ciberdelincuente puede utilizar ChatGPT para elaborar un guión o incluso realizar una llamada telefónica con el fin de manipular a alguien para que divulgue su información personal.

Los estafadores también pueden utilizar fotos de aspecto realista y hacerse pasar por un representante de atención al cliente para engañar a alguien y conseguir que le dé su información de inicio de sesión.

Además, con la ayuda de ChatGPT, los estafadores pueden crear videos falsos haciéndose pasar por personal de alto rango para pedir a los empleados que envíen información personal, dinero u otra información al ciberdelincuente.

Para generar estas estafas, el estafador carga un guión de cómo quiere que sea la foto, o que diga la persona por la que se hace pasar, y la IA hace el resto. Es sorprendentemente sencillo.

El peligro de estas estafas es que la gente es más propensa a creerles a los ciberdelincuentes si parece que se están comunicando con una persona real, o alguien que ya conocen.

Cómo protegerse

Las políticas organizativas en torno a ChatGPT están tardando en implementarse. Esto es especialmente cierto en el caso de las grandes organizaciones y empresas, donde este tipo de cambios tardan más en aplicarse debido a su tamaño y al número de políticas implicadas.

Afortunadamente, para tratar de adelantarse a la curva, muchas organizaciones han compartido con sus equipos avisos para operar con cautela y han empezado a formar a sus empleados en lo que se aplican políticas internas más sofisticadas.

¿Qué puedes tú hacer mientras tanto?

1.       Hacer las cosas más despacio. Estudia el correo electrónico, la llamada telefónica o el video que te están presentando. Hazte estas preguntas:

a.       ¿Lo estabas esperando?

b.       ¿Es de alguien que conoces?

c.       ¿Es así como esta persona u organización suele comunicarse conmigo?

Si contestas en sentido negativo a alguna de estas preguntas, lo más probable es que alguien esté intentando estafarte.

2.       Investiga. Si el correo electrónico, la llamada telefónica o el video proceden de alguien que conoces o de una marca conocida, investiga un poco más. Echa un vistazo a lo siguiente:

a.       Si hay un enlace, pase el cursor por encima. Compáralo con el enlace de la organización desde su sitio web. ¿Coincide?

b.       Mira la dirección de correo electrónico del remitente y compárala con la dirección de la organización o la dirección personal (puede que tengas que buscar esta información). ¿Coinciden las direcciones de correo electrónico?

c.       Cuando investigues un video, fíjate en su calidad y tamaño. ¿La calidad es la esperada? ¿Son correctas las proporciones?

Si respondes que no a alguna de estas preguntas, lo más probable es que alguien esté intentando estafarte.

3.       En caso de duda, no dudes en ponerte en contacto. Si realizaste los dos primeros pasos y sigues sin estar seguro, ponte en contacto con la persona o marca a través de otro método de comunicación para confirmar que la solicitud sea legítima. Siempre puedes pasar por el proceso de soporte de la organización a través de su sitio web directamente para mitigar cualquier sitio web falso también.

4.       Recuerda que es más probable que caigas en una estafa:

a.       Temprano por la mañana y tarde por la noche.

b.       Cuando estés trabajando fuera de tu horario laboral o cuando estás de vacaciones.

Evita consultar su correo electrónico y responder a mensajes durante estas horas, ya que no estás tan alerta y es más probable que caigas en un fraude.

¿Buscas más información?

Echa un vistazo a nuestro blog sobre ChatGPT y entender la inteligencia artificial.

Previous
Previous

Kevin Mitnik, “The World's Most Famous Hacker,” has Passed Away  

Next
Next

5 Ways to Create Impactful Cybersecurity Training