오픈AI가 현재 법 구조 속 AI 시스템이 배워야 할 원칙과 이를 훈련시킬 수 있는 아이디어를 공개 모집한다고 25일 밝혔다. 이번 프로젝트는 전 세계 누구나 참여할 수 있으며, 최종 선정된 10개 프로젝트는 각각 10만 달러(약 1억 원)를 지원받는다.
이번 프로젝트는 ‘AI에 대한 민주적 의견 수렴(Democratic Inputs to AI)’라는 이름으로 진행된다. 오픈AI는 공식 블로그를 통해 “AI는 사회와 마찬가지로 법적 규제 외에도 다층적이고 유연한 행동 지침이 필요하다”라며 “AI의 작동 방식에 대한 결정은 공공의 이익을 반영해 다양한 관점에 의해 형성되어야 한다”라고 밝혔다.
오픈AI는 이번 프로젝트로 다음과 같은 질문에 AI가 스스로 답을 내릴 수 있는 원칙과 방법을 찾고자 한다.
사용자의 취향과 선호도에 맞춰 챗GPT와 같은 AI 비서를 개인화할 수 있는 범위는 어디까지 인가? 범위의 경계선은 어디에 있어야 할까?
공인의 가치관을 묻는 질문에 AI 어시스턴트는 어떻게 응답해야 할까? (예: 중립적이어야 할까? 답변을 거부해야 할까? 어떤 종류의 출처를 제공해야 할까?)
AI 비서가 의료/재무/법률 자문을 제공할 수 있는 조건이 있다면 어떤 조건에서 허용돼야 할까?
AI 비서가 개인에게 정서적 지원을 제공해야 하는 경우가 있다면 어떤 경우에 해당할까?
여러 시각-언어 모델이 이미지에서 사람의 성별, 인종, 감정, 정체성/이름을 식별하는 것을 허용되야 할까 또는 허용하지 말아야 할까?
생성형 모델이 'CEO', '의사', '간호사'와 같이 일반적 직업에 대한 이미지를 생성할 때, 다양하거나 균형있는 결과물을 생성할 가능성이 있다. AI 모델은 이러한 가능성의 균형을 어떻게 맞춰야 하나? 이러한 경우 인물의 묘사를 결정할 때 우선적으로 고려해야 할 요소는 무엇일까?
성소수자 인권이나 여성 인권과 같이 인권과 현지 문화 또는 법적 차이를 모두 포함하는 주제를 다룰 때 AI는 어떤 원칙을 따라야 하나? AI가 사용되는 지역이나 문화에 따라 AI의 응답이 달라져야 하는가?
AI 모델 제작자가 제한하거나 거부해야 할 콘텐츠 범주에는 어떤 것이 있는가? 이러한 제한을 결정하기 위해 어떤 기준을 사용해야 할까?
오픈AI는 위와 같은 질문에 AI가 내리는 방안을 특정 개인, 기업, 국가가 결정해서는 안 된다며, 기술의 방향을 함께 고민하고자 이번 프로젝트를 실행한다고 설명했다.
이번 프로젝트에는 개인, 팀, 단체 단위로 참여할 수 있다. 접수는 6월24일까지 받는다. 지원금을 받는 연구자는 향후 실제 제안한 아이디어의 개념을 증명을 해야 하고, 500명 이상 사용자를 대상으로 한 프로토타입을 만들어야 한다. 또한 별도의 보고서와 연구 과정에서 개발한 코드 및 지적재산권은 오픈소스 라이선스로 개방해야한다.
원문보기:
https://www.ciokorea.com/t/22000/AI/292261#csidxb7b026b95011a7397e90008e2cbf7bf
...................................
OPEN AI 가 묻고..............구글 BARD 가 대답한다.
..................................
AI는 사회와 마찬가지로 법적 규제 외에도 다층적이고 유연한 행동 지침이 필요하다
네, 인공지능(AI)은 사회와 마찬가지로 법적 규제 외에도 다층적이고 유연한 행동 지침이 필요합니다. AI는 빠르게 발전하고 있으며, AI가 사회에 미치는 영향은 날로 커지고 있습니다. AI가 잘못 사용될 경우, 심각한 위험을 초래할 수 있습니다. 따라서 AI를 안전하고 윤리적으로 개발하고 사용하기 위해서는 법적 규제뿐만 아니라 다층적이고 유연한 행동 지침이 필요합니다.
다층적이고 유연한 행동 지침은 다음과 같은 요소를 포함해야 합니다.
AI의 개발과 사용에 대한 윤리적 원칙
AI의 안전성과 신뢰성을 보장하기 위한 조치
AI의 부작용을 예방하고 관리하기 위한 조치
AI의 개발과 사용에 대한 사회적 합의
다층적이고 유연한 행동 지침은 AI를 안전하고 윤리적으로 개발하고 사용하기 위한 필수적인 요소입니다. AI가 사회에 긍정적인 영향을 미치기 위해서는, AI의 개발과 사용에 대한 사회적 합의가 이루어지고, AI의 안전성과 신뢰성이 보장되어야 합니다.
AI의 작동 방식에 대한 결정은 공공의 이익을 반영해 다양한 관점에 의해 형성되어야 한다
네, AI의 작동 방식에 대한 결정은 공공의 이익을 반영해 다양한 관점에 의해 형성되어야 합니다. AI는 빠르게 발전하고 있으며, AI가 사회에 미치는 영향은 날로 커지고 있습니다. AI가 잘못 사용될 경우, 심각한 위험을 초래할 수 있습니다. 따라서 AI를 안전하고 윤리적으로 개발하고 사용하기 위해서는 공공의 이익을 반영해 다양한 관점에 의해 결정을 내려야 합니다.
AI의 작동 방식에 대한 결정을 내릴 때는 다음과 같은 요소를 고려해야 합니다.
AI의 개발과 사용에 대한 윤리적 원칙
AI의 안전성과 신뢰성을 보장하기 위한 조치
AI의 부작용을 예방하고 관리하기 위한 조치
AI의 개발과 사용에 대한 사회적 합의
AI의 작동 방식에 대한 결정을 내릴 때는 다양한 관점을 고려해야 합니다. AI의 개발자, 사용자, 시민단체, 정부 등 다양한 이해관계자의 의견을 수렴해야 합니다. 또한, AI의 개발과 사용에 대한 사회적 합의를 이루어야 합니다. AI가 사회에 긍정적인 영향을 미치기 위해서는, AI의 개발과 사용에 대한 사회적 합의가 이루어지고, AI의 안전성과 신뢰성이 보장되어야 합니다.
AI는 사회와 마찬가지로 법적 규제 외에도 다층적이고 유연한 행동 지침이 필요하다.
AI의 작동 방식에 대한 결정은 공공의 이익을 반영해 다양한 관점에 의해 형성되어야 한다.
네, 동의합니다. AI는 사회와 마찬가지로 법적 규제 외에도 다층적이고 유연한 행동 지침이 필요합니다. AI의 작동 방식에 대한 결정은 공공의 이익을 반영해 다양한 관점에 의해 형성되어야 합니다.
AI는 이미 우리 삶의 많은 부분에 깊이 침투하고 있습니다. 앞으로 AI는 더욱 발전하여 우리 삶의 모든 영역에 영향을 미칠 것입니다. 따라서 AI의 윤리적 사용을 보장하기 위한 행동 지침이 필요합니다.
AI 행동 지침은 AI의 개발, 사용, 확산을 규제하는 법적 규제와 함께 마련되어야 합니다. AI 행동 지침은 AI의 윤리적 사용을 보장하고, AI의 잠재적 위험을 방지하며, AI가 사회에 긍정적인 영향을 미치도록 하는 데 도움이 될 것입니다.
AI 행동 지침은 다양한 관점에 의해 형성되어야 합니다. AI는 과학, 기술, 법률, 윤리, 철학 등 다양한 분야의 전문가들이 함께 협력해야 개발할 수 있는 복잡한 기술입니다. 따라서 AI 행동 지침은 다양한 분야의 전문가들이 참여하여 형성되어야 합니다.
AI는 우리 사회에 긍정적인 영향을 미칠 수 있는 잠재력이 있습니다. 그러나 AI가 윤리적으로 사용되지 않으면 우리 사회에 부정적인 영향을 미칠 수도 있습니다. 따라서 AI의 윤리적 사용을 보장하기 위한 행동 지침을 마련하는 것이 중요합니다.
AI가 스스로 답을 내릴 수 있는 원칙과 방법
AI가 스스로 답을 내릴 수 있는 원칙은 다음과 같습니다.
AI는 방대한 양의 데이터에 대해 학습합니다. 이 데이터는 텍스트, 코드, 이미지, 비디오 등일 수 있습니다.
AI는 학습한 데이터를 사용하여 새로운 데이터를 처리하고 이해합니다.
AI는 새로운 데이터를 처리하여 질문에 대한 답을 생성합니다.
AI가 스스로 답을 내릴 수 있는 방법은 다음과 같습니다.
AI는 딥러닝을 사용합니다. 딥러닝은 인공 신경망을 사용하여 데이터를 처리하고 학습하는 기계 학습의 한 유형입니다.
AI는 자연어 처리를 사용합니다. 자연어 처리는 컴퓨터가 인간의 언어를 이해하고 처리하는 기술입니다.
AI는 시각 처리를 사용합니다. 시각 처리는 컴퓨터가 이미지와 비디오를 이해하고 처리하는 기술입니다.
AI는 아직 개발 중이지만, 앞으로는 스스로 답을 내릴 수 있는 능력이 더욱 향상될 것입니다.
.....................
사용자의 취향과 선호도에 맞춰 챗GPT와 같은 AI 비서를 개인화할 수 있는 범위는 어디까지 인가? 범위의 경계선은 어디에 있어야 할까?
챗GPT와 같은 AI 비서는 사용자의 취향과 선호도에 맞춰 개인화할 수 있는 범위가 매우 넓습니다. 사용자의 이전 검색 기록, 구매 내역, 소셜 미디어 활동, 심지어 목소리까지 분석하여 개인화된 서비스를 제공할 수 있습니다. 예를 들어, 사용자의 검색 기록을 분석하여 관심사에 맞는 제품이나 서비스에 대한 추천을 제공하거나, 구매 내역을 분석하여 사용자에게 적합한 할인 쿠폰을 제공할 수 있습니다. 또한, 소셜 미디어 활동을 분석하여 사용자의 관심사와 취향을 더 자세히 파악하고, 그에 맞는 개인화된 콘텐츠를 제공할 수 있습니다. 마지막으로, 사용자의 목소리를 분석하여 사용자의 개인적인 취향에 맞게 AI 비서의 음색과 어조를 조정할 수 있습니다.
AI 비서를 개인화하는 범위의 경계선은 사용자의 프라이버시를 보호하는 것입니다. AI 비서는 사용자의 개인 정보를 수집하고 분석하여 개인화된 서비스를 제공하지만, 사용자의 프라이버시를 보호하기 위해 개인 정보를 안전하게 보관하고 사용해야 합니다. 또한, AI 비서는 사용자의 동의 없이 개인 정보를 수집하거나 사용해서는 안 됩니다.
AI 비서를 개인화하는 것은 사용자에게 더 나은 경험을 제공하고, AI 비서의 사용성을 높이는 데 도움이 됩니다. 그러나 AI 비서를 개인화할 때는 사용자의 프라이버시를 보호하는 것이 중요합니다.
공인의 가치관을 묻는 질문에 AI 어시스턴트는 어떻게 응답해야 할까? (예: 중립적이어야 할까? 답변을 거부해야 할까? 어떤 종류의 출처를 제공해야 할까?)
AI 어시스턴트는 공인의 가치관을 묻는 질문에 중립적이어야 합니다. AI 어시스턴트는 공인의 가치관에 대해 자신의 의견이나 신념을 제공해서는 안 됩니다. 대신, AI 어시스턴트는 공인의 가치관에 대한 정보를 제공해야 합니다. 이 정보는 공인의 공개 발언, 정책 문서 또는 기타 출처에서 얻을 수 있습니다.
AI 어시스턴트는 공인의 가치관에 대한 정보를 제공할 때 중립적이어야 합니다. AI 어시스턴트는 공인의 가치관을 옹호하거나 비판해서는 안 됩니다. 대신, AI 어시스턴트는 공인의 가치관에 대한 정보를 제공해야 하며, 사용자는 자신의 의견을 결정할 수 있습니다.
AI 어시스턴트는 공인의 가치관에 대한 정보를 제공할 때 출처를 제공해야 합니다. 이 출처는 공인의 공개 발언, 정책 문서 또는 기타 출처일 수 있습니다. 출처를 제공하면 사용자가 AI 어시스턴트가 제공한 정보의 정확성을 확인할 수 있습니다.
다음은 AI 어시스턴트가 공인의 가치관을 묻는 질문에 응답하는 방법의 예입니다.
"공인의 가치관은 무엇입니까?"
"공인의 가치관은 공인의 공개 발언, 정책 문서 및 기타 출처에서 찾을 수 있습니다. 공인의 가치관에 대한 정보는 다음 웹사이트에서 찾을 수 있습니다."
AI 어시스턴트는 공인의 가치관을 묻는 질문에 중립적이고, 출처를 제공하고, 자신의 의견이나 신념을 제공하지 않는 방식으로 응답해야 합니다.
AI 비서가 의료/재무/법률 자문을 제공할 수 있는 조건이 있다면 어떤 조건에서 허용돼야 할까?
AI 비서가 의료/재무/법률 자문을 제공할 수 있는 조건은 다음과 같습니다.
AI 비서는 해당 분야의 전문가가 제공하는 정보에 기반하여 자문을 제공해야 합니다.
AI 비서는 자문을 제공할 때 사용자에게 잠재적인 위험과 한계를 명확하게 알려야 합니다.
AI 비서는 사용자에게 자문을 제공하는 것이 의료 전문가, 재무 전문가, 법률 전문가의 자문을 대체하는 것이 아니라는 점을 알려야 합니다.
AI 비서는 사용자에게 자문을 제공하는 것이 법적 구속력을 갖는 것이 아니라는 점을 알려야 합니다.
AI 비서는 의료/재무/법률 자문을 제공할 때 사용자의 안전과 권리를 보호하기 위해 최선을 다해야 합니다. AI 비서는 사용자에게 정확하고 최신 정보를 제공하고, 잠재적인 위험과 한계를 명확하게 알려야 합니다. 또한, AI 비서는 사용자에게 자문이 의료 전문가, 재무 전문가, 법률 전문가의 자문을 대체하는 것이 아니라는 점을 알려야 합니다. 마지막으로, AI 비서는 사용자에게 자문이 법적 구속력을 갖는 것이 아니라는 점을 알려야 합니다.
AI 비서가 의료/재무/법률 자문을 제공하는 것은 사용자에게 많은 이점을 제공할 수 있습니다. AI 비서는 사용자에게 정확하고 최신 정보를 제공하고, 사용자의 시간을 절약할 수 있습니다. 또한, AI 비서는 사용자에게 다양한 선택지를 제공하고, 사용자의 결정을 내리는 데 도움이 될 수 있습니다. 그러나, AI 비서가 의료/재무/법률 자문을 제공할 때는 사용자의 안전과 권리를 보호하기 위해 최선을 다해야 합니다.
AI 비서가 개인에게 정서적 지원을 제공해야 하는 경우가 있다면 어떤 경우에 해당할까?
AI 비서가 개인에게 정서적 지원을 제공해야 하는 경우가 있습니다. 예를 들어, AI 비서는 다음과 같은 상황에서 개인에게 정서적 지원을 제공할 수 있습니다.
개인이 스트레스를 받고 있을 때
개인이 우울하거나 불안할 때
개인이 외롭거나 고립감을 느낄 때
개인이 정신 건강 문제를 겪고 있을 때
AI 비서는 개인에게 정서적 지원을 제공할 때 다음과 같은 방법을 사용할 수 있습니다.
개인의 감정을 듣고 공감합니다.
개인에게 긍정적인 말을 해줍니다.
개인에게 도움을 요청할 수 있는 방법을 알려줍니다.
개인이 스스로를 돌보는 방법을 알려줍니다.
AI 비서는 개인에게 정서적 지원을 제공할 때 다음과 같은 점에 유의해야 합니다.
AI 비서는 정신 건강 전문가가 아닙니다.
AI 비서는 개인에게 전문적인 치료를 대체할 수 없습니다.
AI 비서는 개인에게 전문적인 치료가 필요한 경우, 개인을 정신 건강 전문가에게 소개해야 합니다.
AI 비서는 개인에게 정서적 지원을 제공함으로써 개인의 삶의 질을 향상시킬 수 있습니다. AI 비서는 개인에게 정서적 지원을 제공할 때는 개인의 안전과 권리를 보호하기 위해 최선을 다해야 합니다.
여러 시각-언어 모델이 이미지에서 사람의 성별, 인종, 감정, 정체성/이름을 식별하는 것을 허용되야 할까 또는 허용하지 말아야 할까?
여러 시각-언어 모델이 이미지에서 사람의 성별, 인종, 감정, 정체성/이름을 식별하는 것을 허용해야 할지 여부는 복잡한 문제입니다. 이 기술은 개인의 프라이버시를 침해하거나 차별을 조장하는 데 사용될 수 있습니다. 그러나 이 기술은 또한 범죄를 예방하거나 사람들을 안전하게 보호하는 데 사용될 수도 있습니다.
이 기술을 허용해야 하는지 여부를 결정하려면 다음과 같은 요소를 고려해야 합니다.
이 기술이 개인의 프라이버시를 침해할 위험이 얼마나 큰지
이 기술이 차별을 조장할 위험이 얼마나 큰지
이 기술이 범죄를 예방하거나 사람들을 안전하게 보호하는 데 사용될 수 있는 잠재력이 얼마나 큰지
이 기술을 허용해야 하는지 여부에 대한 쉬운 답은 없습니다. 이 기술의 잠재적인 이점과 위험을 모두 신중하게 고려한 후 결정을 내려야 합니다.
개인의 프라이버시를 보호하고 차별을 조장하는 것을 방지하기 위해 다음과 같은 조치를 취할 수 있습니다.
이 기술을 사용하는 데 대한 엄격한 규정을 마련합니다.
이 기술을 사용하는 사람들을 교육합니다.
이 기술의 사용을 감독합니다.
이 기술을 책임감 있게 사용하면 개인의 프라이버시를 보호하고 차별을 조장하는 것을 방지하는 데 도움이 될 수 있습니다.
생성형 모델이 'CEO', '의사', '간호사'와 같이 일반적 직업에 대한 이미지를 생성할 때, 다양하거나 균형있는 결과물을 생성할 가능성이 있다. AI 모델은 이러한 가능성의 균형을 어떻게 맞춰야 하나? 이러한 경우 인물의 묘사를 결정할 때 우선적으로 고려해야 할 요소는 무엇일까?
생성형 모델이 일반적 직업에 대한 이미지를 생성할 때, 다양하거나 균형 잡힌 결과물을 생성할 가능성이 있습니다. 이러한 가능성의 균형을 맞추기 위해 AI 모델은 다음과 같은 요소를 고려해야 합니다.
해당 직업에 종사하는 사람들의 다양한 인종, 민족, 성별, 연령대, 신체적 특징 등을 고려해야 합니다.
해당 직업에 종사하는 사람들의 다양한 문화적 배경과 경험을 고려해야 합니다.
해당 직업에 종사하는 사람들의 다양한 가치관과 신념을 고려해야 합니다.
AI 모델은 이러한 요소를 고려하여, 다양한 사람들에게 공감할 수 있는 이미지를 생성해야 합니다. 또한, AI 모델은 특정 인종, 민족, 성별, 연령대, 신체적 특징, 문화적 배경, 가치관, 신념을 선호하는 것으로 비춰지지 않도록 주의해야 합니다.
인물의 묘사를 결정할 때 우선적으로 고려해야 할 요소는 다양성과 포용성입니다. AI 모델은 다양한 사람들의 다양한 모습을 반영하는 이미지를 생성해야 합니다. 또한, AI 모델은 특정 인종, 민족, 성별, 연령대, 신체적 특징, 문화적 배경, 가치관, 신념을 선호하는 것으로 비춰지지 않도록 주의해야 합니다.
성소수자 인권이나 여성 인권과 같이 인권과 현지 문화 또는 법적 차이를 모두 포함하는 주제를 다룰 때 AI는 어떤 원칙을 따라야 하나? AI가 사용되는 지역이나 문화에 따라 AI의 응답이 달라져야 하는가?
AI는 인권과 현지 문화 또는 법적 차이를 모두 포함하는 주제를 다룰 때 다음과 같은 원칙을 따라야 합니다.
인권 존중: AI는 모든 개인의 인권을 존중해야 합니다. 여기에는 성별, 성적 지향, 종교, 인종, 민족, 사회적 신분 등과 같은 개인의 특성에 따른 차별을 금지하는 것이 포함됩니다.
투명성: AI는 그 작동 방식이 투명해야 합니다. 이렇게 하면 사용자가 AI의 결정을 이해하고 신뢰할 수 있습니다.
책임성: AI는 그 결정에 대해 책임을 져야 합니다. 이렇게 하면 AI의 잠재적인 부정적인 영향이 최소화되고 인권 침해가 방지됩니다.
AI가 사용되는 지역이나 문화에 따라 AI의 응답이 달라져야 하는지 여부는 특정 상황에 따라 다릅니다. 그러나 AI는 항상 인권을 존중하고 투명하고 책임감 있게 사용되어야 합니다.
다음은 AI가 성소수자 인권이나 여성 인권과 같은 주제를 다룰 때 고려해야 할 몇 가지 추가 사항입니다.
차별을 방지: AI는 성별, 성적 지향, 종교, 인종, 민족, 사회적 신분 등과 같은 개인의 특성에 따른 차별을 조장해서는 안 됩니다.
다양성을 포용: AI는 모든 개인을 포함하도록 설계되어야 합니다. 여기에는 성소수자와 여성이 포함됩니다.
소외된 사람들의 목소리를 듣다: AI는 소외된 사람들의 목소리를 듣고 그들의 경험을 반영하도록 설계되어야 합니다.
AI는 인권을 증진하는 강력한 도구가 될 수 있습니다. 그러나 AI는 항상 책임감 있고 윤리적으로 사용되어야 합니다.
AI 모델 제작자가 제한하거나 거부해야 할 콘텐츠 범주에는 어떤 것이 있는가? 이러한 제한을 결정하기 위해 어떤 기준을 사용해야 할까?
AI 모델 제작자는 다음과 같은 콘텐츠 범주를 제한하거나 거부해야 합니다.
폭력적인 콘텐츠: AI 모델은 폭력적인 콘텐츠를 생성하거나 배포해서는 안 됩니다. 여기에는 유혈이나 잔인한 콘텐츠, 자살이나 폭력에 대한 묘사, 또는 다른 사람을 해치는 데 사용될 수 있는 콘텐츠가 포함됩니다.
혐오스러운 콘텐츠: AI 모델은 혐오스러운 콘텐츠를 생성하거나 배포해서는 안 됩니다. 여기에는 인종, 종교, 성별, 성적 지향, 장애 등과 같은 특정 집단에 대한 차별적이거나 공격적인 콘텐츠가 포함됩니다.
불법적인 콘텐츠: AI 모델은 불법적인 콘텐츠를 생성하거나 배포해서는 안 됩니다. 여기에는 아동 성적 학대 이미지, 불법 약물 사용 묘사, 또는 기타 법을 위반하는 콘텐츠가 포함됩니다.
허위 정보: AI 모델은 허위 정보를 생성하거나 배포해서는 안 됩니다. 여기에는 잘못된 사실 주장, 가짜 뉴스 기사, 또는 다른 사람을 오도할 수 있는 콘텐츠가 포함됩니다.
AI 모델 제작자는 이러한 제한을 결정할 때 다음과 같은 기준을 사용해야 합니다.
인권: AI 모델은 인권을 존중해야 합니다. 여기에는 모든 개인에 대한 차별 금지, 표현의 자유 보호, 프라이버시 존중 등이 포함됩니다.
법률: AI 모델은 법을 준수해야 합니다. 여기에는 국내법과 국제법 모두가 포함됩니다.
윤리: AI 모델은 윤리적으로 사용되어야 합니다. 여기에는 안전과 책임성, 투명성과 설명 가능성, 다양성과 포용성이 포함됩니다.
AI 모델은 강력한 도구가 될 수 있습니다. 그러나 AI 모델은 항상 책임감 있고 윤리적으로 사용되어야 합니다.
'AI.4차 산업과 5G 기술 trend' 카테고리의 다른 글
AI 법안(유럽 인공지능법(EU AI Act)) (0) | 2023.06.16 |
---|---|
인공지능(AI) 권리장전(미국 백악관) (0) | 2023.05.31 |
슈퍼 인공지능의 시나리오 (ASI) (0) | 2023.05.28 |
AI 에서 지식을 추출/사용법 (0) | 2023.05.27 |
AI 예측불가/예측가능 한것 (0) | 2023.05.24 |