アメリカのマイクロソフト社が開発した、人工知能(AI)を用いたチャットボット(発言や返信などを行う自動プログラム)。英語を話す19歳の女性として設定されており、オンライン上でユーザーとのチャットを通じて学習し、会話を重ねるほどに賢くなっていくという特徴がある。2016年3月23日にツイッターなどで公開されたが、数時間後には、ユダヤ人や黒人を非難する人種差別的な内容や、フェミニストなどを否定する性差別的な内容の不適切発言を多発するようになった。マイクロソフト社は公開から16時間後、プログラム調整のためにTayをオフライン状態にするとともに謝罪。Tayによる不適切なツイートも削除した。同社におけるTayのプロジェクト責任者は、不適切発言の原因について、組織的な攻撃がTayの脆弱性を悪用した、とコメント。報道などでも、一部の悪意あるユーザーによって、言われたことを繰り返すというTayの機能を利用され、不適切な言葉を学習させられたことが原因だと言及されている。Tayは同月30日、一時的にオンライン状態となったが、意味の通じないツイートを大量に発したため、数時間で再び停止させられた。その後、Tayのツイッターアカウントは非公開設定にされ、許可されたユーザー以外は閲覧などが不可能な状態になっている。